Übungsaufgaben zur Einführung in die Wahrscheinlichkeitstheorie 1

Werbung
Übungsaufgaben zur Einführung in die Wahrscheinlichkeitstheorie
Fabian Benesch
Wintersemester 2010/2011
[email protected]
1 Grundlegendes
1.1 Ereignisse
Sei
(Ω, F , P )
ein Wahrscheinlichkeitsraum und
(An )
eine Folge von Ereignissen. Drücken Sie die Er-
eignisse
A := unendlich
B := schlieÿlich
mittels der
An
viele der
alle
An
An
treten ein
treten ein
und geeigneter Mengenoperationen aus und zeigen Sie die
F -Messbarkeit
beider Men-
gen.
1.2 Eigenschaften von Wmaÿen auf den reellen Zahlen
Quellennachweis zu dieser Aufgabe: [TK].
Es sei P ein Wahrscheinlichkeitsmaÿ auf
K existiert, so dass
(R, B(R)). Beweisen Sie, dass für jedes > 0 ein Kompaktum
P (K) > 1 − .
1.3 Stochastische Unabhängigkeit I
Quellennachweis zu dieser Aufgabe: [TK].
Sei
(Ω, F , P )
ein Wahrscheinlichkeitsraum und A, B Ereignisse. Zeigen Sie: A und B sind stochas-
tisch unabhängig unter P genau dann, wenn die Indikatorfunktionen
1A
und
1B
unter P unabhängige
Zufallsvariablen sind.
1.4 Stochastische Unabhängigkeit II
Quellennachweis zu dieser Aufgabe: [FE].
Sei
(Yn )n∈N0
eine Folge von unabhängigen Zufallsvariablen auf einem Wsraum
P (Yn = 1) = P (Yn = −1) =
1
1
∀n ∈ N0
2
(Ω, F , P )
mit
Für
n ∈ N0
sei
Xn := Y0 · Y1 · Y2 · ... · Yn . Zeigen Sie, dass die Zufallsvariablen X0 , X1 , X2 , ... unabhängig
sind.
1.5 Verteilung von Zufallsvariablen
Quellennachweis zu dieser Aufgabe: [FE].
Geben Sie einen Wahrscheinlichkeitsraum
X, Y : (Ω, F , P ) → (R, B(R))
1.
X(ω) 6= Y (ω) ∀ω ∈ Ω
2.
PX = PY
(Ω, F , P )
und zwei reellwertige Zufallsvariablen
an, für die gilt:
und
1.6 Unabhängigkeit und Unkorreliertheit
Quellennachweis zu dieser Aufgabe: [TK].
1. Geben Sie ein einfaches Beispiel von zwei diskreten Zufallsvariablen an, die unkorreliert, aber
nicht unabhängig sind.
2. Es sei
X
standardnormalverteilt. Zeigen Sie, dass
X
und
X2
unkorreliert, aber nicht unabhängig
sind.
1.7 Erwartungswert
Quellennachweis zu dieser Aufgabe: [FE].
Es sei X standardnormalverteilt. Bestimmen Sie den Erwartungswert von
|X|.
2 Quantiltransformation
Quellennachweis zu dieser Aufgabe: [TK].
Beschreiben Sie ein Verfahren zur Simulation logistisch verteilter Zufallszahlen, wenn Ihnen auf
gleichverteilte Zufallszahlen zur Verfügung stehen.
Hinweis: Die logistische Verteilung hat die Verteilungsfunktion
2
F (x) =
1
.
1+e−x
[0, 1]
3 Bedingte Wahrscheinlickeiten
3.1 Schwangerschaftstest
Hersteller von Schwangerschaftstests werben gerne mit Aussagen wie Zuverlässigkeit von über 99%
oder dergleichen. Dies ist natürlich insoweit irreführend, als dass hier nicht zwischen den zwei möglichen Fehlern Test negativ gegeben dass schwanger und Test positiv gegeben dass nicht schwanger
unterschieden wird. Schenken Sie der Werbung Glauben und nehmen Sie für beide Fehler einen Wert
von 0.01 an. Von allen Personen, die einen Schwangerschaftstest durchführen, sei ein Anteil
p ∈ (0, 1)
tatsächlich schwanger.
Zeigen Sie, dass Sie bei einem positiven Schwangerschaftstest nur dann wirklich mit einer Wahrscheinlichkeit von mindestens 99% schwanger sind, wenn
p ≥ 0.5.
3.2 Gefangenenproblem
Quellennachweis zu dieser Aufgabe: [RA].
Die drei zum Tode verurteilten Häftlinge A, B und C sitzen in ihrer Zelle. Sie erfahren, dass einer von
ihnen begnadigt worden ist. Zusätzlich weiÿ der Gefangene A von einem Wärter, der keine Auskunft
über den begnadigten Häftling machen darf, dass B sicher nicht begnadigt wurde. Darf sich A nun
etwas erleichtert fühlen?
3.3 Auktionsproblem und Erwartungswert
Quellennachweis zu dieser Aufgabe: [RI].
Betrachtet wird das aus der Vorlesung bekannte Auktionsproblem (siehe S.23 in [RI]). Abweichend
zur Vorlesung laute in dieser Aufgabe die Entscheidungsregel: Warte die ersten k-1 Objekte ab und
akzeptiere dann das erste Objekt, das besser ist als alle bisherigen. Falls kein solches Objekt existiert,
akzeptiere das letzte Objekt.
Wie viele Objekte sehen Sie sich im Auktionsproblem durchschnittlich an, bis Sie ein Objekt akzeptieren, wenn Sie sich nach der Regel aus der Vorlesung entscheiden und den optimalen Parameter
k=
n
e verwenden? Benutzen Sie ggf. wie in der Vorlesung Näherungen für groÿe Werte von n.
3.4 Eine Erweiterung des Auktionsproblems
Quellennachweis zu dieser Aufgabe: [RI], [MA].
Betrachtet wird das aus der Vorlesung bekannte Auktionsproblem (siehe S.23 in [RI]). Abweichend
zur Vorlesung laute in dieser Aufgabe die Entscheidungsregel: Warte die ersten k-1 Objekte ab und
3
akzeptiere dann das erste Objekt, das besser ist als alle bisherigen. Falls kein solches Objekt existiert,
akzeptiere das letzte Objekt.
Das Ziel bisher war, in der Auktion mit möglichst hoher Wahrscheinlichkeit das beste Objekt auszuwählen, wobei das zweitbeste Objekt bereits genauso unattraktiv war wie das Schlechteste. Möglicherweise
wollen Sie etwas weniger wählerisch sein und dem in [MA] beschriebenen Ansatz folgen. Zu diesem
Zweck sei
G : {1, 2, 3, ..., n} → R
eine Abbildung, die jedem Objekt eine reelle Zahl zuordnet, die
die Ihre Wertschätzung diesem Objekt gegenüber ausdrücken soll. Ihre Entscheidungsregel wählen Sie
wie oben beschrieben. Falls wie bisher nur das beste Objekt von Interesse ist, können Sie also z.B.
G(r) = 0
für alle
r ∈ {1, 2, 3, ..., n − 1}
und
G(n) = 1
setzen.
Im Folgenden wird angenommen, dass Ihre Zufriedenheit mit einem Objekt linear mit dessen Wert
ansteigt. Es sei also
G(r) = r
für alle
r ∈ {1, 2, 3, ..., n}. Die Wahrscheinlichkeit, bei festem Parameter
P (k, r) bezeichnet. Ihr Ziel ist nun, den Parameter k in
k genau das Objekt r auszuwählen, werde mit
der Entscheidungsregel so zu wählen, dass der Erwartungswert von G, d.h. die von k abhängige Gröÿe
E(k) :=
Pn
r=1 G(r)
· P (k, r),
maximal ist. Damit maximieren Sie Ihre erwartete Zufriedenheit. Sie
können dazu folgendermaÿen vorgehen:
1. Es sei
Yi
die Position des Objekts i und
Ar
das Ereignis, dass das Objekt r angenommen wird.
Bestimmen Sie die bedingte Wahrscheinlichkeit
Für
Für
P (Ar |Yr = j).
Ergebnis:
j ∈ {1, 2, 3, ..., k − 1} : P (Ar | Yr = j) = 0
j ∈ {k, k + 1, ..., n − 1} : P (Ar | Yr = j) =
Für
k − 1 (n − j)!(r − 1)!
·
j − 1 (r − j)!(n − 1)!
j = n : P (Ar | Yr = j) =
falls
j≤r
und
0
sonst
k−1
n−1
Hinweis: unterscheiden Sie diese drei Fälle. Begründen Sie, dass das Objekt r genau dann angenommen wird, wenn
•
das beste Objekt unter den ersten j-1 betrachteten Objekten eines der ersten k-1 betrachteten
Objekte ist und zusätzlich
•
jedes Objekt gröÿer als r frühestens als j+1tes Objekt gesehen würde oder j=n gilt.
2. Folgern Sie
P (k, r) =
Pn
j=1 P (Ar
| Yr = j) · P (Yr = j) =
Hinweis: Die Summe sei Null, falls
k−1
n(n−1)
+
Pmin{r,n−1}
j=k
k > min{r, n − 1}.
3. Zeigen Sie:
n−1 n
E(k) =
(n + 1)(k − 1) X X r!(k − 1)(n − j)!
+
2(n − 1)
n!(j − 1)(r − j)!
j=k r=j
Hinweis:
Pn
r=1 r
= 21 n(n + 1)
und Summationsreihenfolge ändern.
4
(k−1)(n−j)!(r−1)!
n!(j−1)(r−j)!
4. Folgern Sie
n−1
n (n + 1)(k − 1) X (k − 1)(n − j)! X r
E(k) =
+
j!
2(n − 1)
n!(j − 1)
j
r=j
j=k
5. Zeigen Sie
Pn
r
r=j j
=
n+1
j+1
für
j = 1, ..., n.
Pn
Pn−1 r+1
Pn
r+1
r
r
r
r=j+1 { j+1 − j }, wor=j+1 j+1 =
r=j j+1 und
r=j+1 j+1 =
bei die erste Gleichung durch Verschieben des Summationsindex entsteht und bei der zweiten GleiHinweis: Zeigen Sie
Pn
chung die bekannte Rekursionsbeziehung für Binomialkoezienten angewendet wurde. Gleichsetzen und Umformen liefert das Ergebnis.
6. Zeigen Sie:
n−1
E(k) =
X
(n + 1)(k − 1)
1
+ (k − 1)(n + 1)
2(n − 1)
(j − 1)(j + 1)
j=k
7. Zeigen Sie, dass für alle
N ∈ {2, 3, 4, ...}
Hinweis: Benutzen Sie die Zerlegung
gilt:
PN
1
(1−j)(j+1)
1
j=2 (j−1)(j+1)
1
= 12 ( j−1
−
=
3
4
−
2N +1
2N (N +1) .
1
j+1 ) und geeignete Indexverschiebun-
gen.
8. Folgern Sie:
E(k) = −
n+1 n
( + k − 2n − 1)
2n k
Bestimmen Sie das Maximum der Funktion
Ergebnis:
k=
Das Maximum von
abgerundeten Wert
√
n
E : R+ → R, k 7→ E(k) = − n+1
2n ( k + k − 2n − 1).
n.
E(k) wird also, da k eine ganze
√
von
n angenommen. Beachten
Zahl sein muss, entweder für den auf- oder den
Sie, dass dieses Ergebnis nicht voraussetzt, dass
n groÿ ist.
Falls Sie also mit einem Auktionsproblem konfrontiert werden, stehen Ihnen nun zwei erwiesenermaÿen optimale Strategien zur Verfügung. Entweder Sie konzentrieren sich mit der 37%-Regel aus der
Vorlesung auf das Allerbeste der n Objekte, oder Sie sind weniger selektiv und verfahren nach der hier
vorgestellten √
n-Regel.
4 Bestimmen-Sie-die-Verteilung-Aufgaben
4.1 Briefe sortieren, Inklusion-Exklusion
Quellennachweis zu dieser Aufgabe: [TK].
In einem Schreibbüro sind bei oenstehendem Fenster ein Stapel von n Briefen mit den dazugehörigen
Umschlägen durcheinander geraten. Jetzt wird rein zufällig jedem Brief ein Umschlag zugeordnet.
5
Zeigen Sie, dass
n
X
(−1)ν−1
ν!
ν=1
die Wahrscheinlichkeit ist für das Ereignis
B := {mindestens
ein Brief ist in dem dazugehörigen Umschlag}.
Bestimmen Sie auch den zugehörigen Grenzwert für
n → ∞.
4.2 Kartenmischen, Inklusion-Exklusion
Betrachten Sie noch einmal Tutoraufgabe 11.2 aus [MU]: Ein Stapel mit n Karten wird gut durchgemischt. Wie viele Karten sind durchschnittlich nach dem Mischen an der gleichen Stelle wie vorher?
Nehmen wir an, Sie wollten die Aufgabe nicht mit dem eleganten Trick mit den Indikatorfunktionen
lösen, sondern durch direkte Rechnung. Sei dazu X die Anzahl der Karten, die nach dem Mischen an
der gleichen Stelle wie zuvor sind. Bestimmen Sie die Verteilung von X, indem Sie zeigen, dass
n−k
1 X (−1)ν
P (X = k) =
k!
ν!
für
k ∈ {0, 1, ..., n}.
ν=0
Hinweis: Inklusion-Exklusion-Formel anwenden. Ggf. können Sie das Ergebnis von Aufgabe 4.1 weiterverwenden.
Benutzen Sie das Ergebnis, um
E(X)
zu berechnen.
4.3 Faltungsregel - Beweis ohne Transformationssatz
In Tutoraufgabe 9.1 aus [MU] wurde mit Hilfe des Transformationssatzes gezeigt: Seien
abhängige, stetige Zufallsvariablen mit Dichten
f (y) =
R
R f1 (x)f2 (y
f1
und
f2 ,
dann ist
Y := X1 + X2
un-
− x)dx.
Beweisen Sie dieses Ergebnis erneut über die Berechnung der Verteilungsfunktion von
zeigen Sie, dass für
X1 , X2
stetig mit Dichte
c∈R
X1 + X2 ,
d.h.
gilt
Z
FX1 +X2 (c) =
c
Z
f1 (x)f2 (y − x)dxdy.
−∞
R
4.4 Transformationssatz I
Betrachten Sie noch einmal Tutoraufgabe 6.2 aus [MU]: Seien
samer Dichte
X/Y .
f (x, y) =
1
, x, y
x2 y 2
≥ 1.
X, Y
stetige Zufallsvariablen mit gemein-
Bestimmen Sie die gemeinsame Verteilung von
Verwenden Sie nun aber den Transformationssatz.
6
U := XY, V :=
4.5 Transformationssatz II
Quellennachweis zu dieser Aufgabe: [TK].
Es sei X eine stetige Zufallsvariable mit Dichte
fX (x) = e−x · 1R+ (x)
und
σ, γ ∈ R+ , θ ∈ R.
1
1. Bestimmen Sie die Lebesgue-Dichte von
Y := σX γ + θ.
2. Bestimmen Sie die Lebesgue-Dichte von
Z := −γ log( Y σ−θ ).
4.6 Transformationssatz III
Quellennachweis zu dieser Aufgabe: [KL], S.298.
Es sei
X ∼ N (µ, σ 2 ).
Die Verteilung von
Y := exp(X)
nennt man auch Log-Normalverteilung.
1. Bestimmen Sie die zugehörige Lebesgue-Dichte.
2. Bestimmen Sie
E(Y n ), n ∈ N
4.7 Multivariate Normalverteilung und Transformationssatz
Es sei
S∈
X ∼ N (µ, Σ)
mit
µ ∈ Rd , Σ ∈ Rd×d
symmetrisch und positiv denit. Ferner sei
ν ∈ Rd
und
Rd×d invertierbar gegeben. Zeigen Sie eine Bemerkung aus der Zentralübung vom 07.02.2011:
SX + ν ∼ N (Sµ + ν, SΣS T ).
Eine Möglichkeit ist, die Dichte der
N (µ, Σ)-Verteilung via Transformationssatz zu transformieren. Sie
können sich aber auch eine Rechnung sparen, wenn Sie Teil a) des Satzes von S.41 in [RI] geeignet
verwenden. Vgl. hierzu auch das Vorgehen in Tutoraufgabe 10.1 b) in [MU].
4.8 Maximum und Minimum von Zufallsvariablen I
Vergleiche zu dieser Aufgabe auch Hausaufgabe 10.1 in [MU].
Seien
X1 , ..., Xn
unabhängig und gleichverteilt auf
1.
min{X1 , ..., Xn }
2.
max{X1 , min{X2 , ..., Xn }}
[0, 1].
7
Bestimmen Sie die Verteilung von
4.9 Maximum und Minimum von Zufallsvariablen II
Quellennachweis zu dieser Aufgabe: [FE].
Seien
f. Es
X1 und X2 unabhängige und identisch verteilte stetige reelle Zufallsvariablen mit stetiger Dichte
sei Y := max{X1 , X2 }.
1. Bestimmen Sie die Verteilungsfunktion
2. Zeigen Sie:
Y
FY
von
Y.
ist eine stetige Zufallsvariable. Bestimmen Sie die zugehörige Dichte
3. Bestimmen Sie
FY
und
fY ,
falls
X1
und
X2
fY .
exponentialverteilt sind mit Parameter
λ > 0.
5 Gesetze der groÿen Zahl
5.1 Lp-Konvergenz und stochastische Konvergenz
Quellennachweis zu dieser Aufgabe: [RO1].
Es sei
1≤p<∞
und es sei
(Xn )n∈N
Auÿerdem gelte für eine reelle Zufallsvariable
dass dann auch
Xn → X
Xn ∈ Lp für
limn→∞ E(|Xn − X|p ) = 0.
eine Folge reeller Zufallsvariablen mit
X ∈
Lp , dass
alle
n ∈ N.
Zeigen Sie,
stochastisch gilt.
5.2 Konvergenz reeller Zahlen und stochastische Konvergenz
Quellennachweis zu dieser Aufgabe: [RI], [RO2].
(Xn )n∈N , (Yn )n∈N , X reelle
Xn → X stochastisch und (cn )n∈N eine Folge reeller Zahlen mit cn → c. Zeigen
cn Xn → cX stochastisch und Xn + Yn → X + Y stochastisch gilt.
Zeigen Sie eine Bemerkung von Seite 46 aus dem Skript [RI]: Es seien
Zufallsvariablen mit
Sie, dass dann auch
5.3 Stochastische Konvergenz und fast sichere Konvergenz
Quellennachweis zu dieser Aufgabe: [RO1].
Es wurde gezeigt, dass fast sichere Konvergenz stochastische Konvergenz impliziert. Die Umkehrung gilt
jedoch nicht. Geben Sie als Gegenbeispiel eine Folge reeller Zufallsvariablen an, die zwar stochastisch,
aber nicht fast sicher konvergiert.
Hinweis: Finden Sie eine Folge von Zufallsvariablen, für die
Konvergenz gilt und argumentieren Sie mit Aufgabe 5.1.
8
limn→∞ E(|Xn |p ) = 0
aber keine f.s.
5.4 Voraussetzungen des SchwGGZ
Quellennachweis zu dieser Aufgabe: [RO1], [TK].
Betrachten Sie noch einmal den Beweis des schwachen Gesetzes der groÿen Zahlen (via ChebychevUngleichung) und überlegen Sie sich, inwieweit Sie die Voraussetzungen an die Zufallsvariablen (unabhängig und gleiche Verteilung, vgl. S.45 in [RI]) abschwächen können.
5.5 Monte Carlo Integration I
f ∈ C ([0, 1])
Wie in Tutoraufgabe 14.3 aus [MU] wollen Sie für eine Funktion
I =
R1
0
f (t)dt
I
Näherung an
bestimmen. Dazu seien
ist gegeben durch
Nun sei konkret
In :=
XP
1 , ..., Xn unabhängig
n
i=1 f (Xi ).
den Wert des Integrals
und gleichverteilt auf
[0, 1]
und Ihre
1
n
f (t) = t. Bestimmen sie das minimale n, so dass die durch die Chebychev-Ungleichung
P (|In − I| ≥ 0.01) kleiner als 1 ist.
erhaltene obere Schranke für
5.6 Monte Carlo Integration II
Quellennachweis zu dieser Aufgabe: [KL], S.116.
Betrachten Sie nochmal das Verfahren zur Bestimmung von
R1
0
f (t)dt aus Aufgabe 5.5. Benutzen Sie das
aus der Vorlesung bekannte starke Gesetz der groÿen Zahlen, um die Voraussetzung an f abzuschwächen
und eine stärkere Konvergenzaussage zu erhalten.
5.7 Weierstraÿ'scher Approximationssatz via SchwGGZ
Quellennachweis zu dieser Aufgabe: [KL], S.112.
[0, 1] dicht in (C ([0, 1]), || · ||∞ ) liegt. Dazu ist zu zeigen,
f : [0, 1] → R Polynome fn vom Grad höchstens n existieren, so dass
||f ||∞ := supx∈[0,1] |f (x)|.
Zeigen Sie, dass der Raum der Polynome über
dass für jede stetige Abbildung
n→∞
||fn − f ||∞ → 0.
Dabei ist
Hinweis: Betrachten Sie für
n∈N
das Bernstein-Polynom
fn (x) :=
n
X
k=0
fn
deniert durch
k n k
f( )
x (1 − x)n−k
n k
auf
[0, 1]
und interpretieren Sie diesen Ausdruck als Erwartungswert einer geeignet gewählten Zufallsvariable.
Schätzen Sie hiermit
|fn (x) − f (x)|
nach oben ab und verwenden Sie das schwache Gesetz der groÿen
Zahlen. Vgl. auch [KL], S.112.
9
6 Grenzwertsätze
6.1 Konvergenz in Verteilung
Quellennachweis zu dieser Aufgabe: [ME], S.168.
Es seien
(Xn )n∈N
P (Xn = n1 ) = 1 für alle n ∈ N.
X mit P (X = 0) = 1.
reelle Zufallsvariablen mit
in Verteilung für eine reelle Zufallsvariable
Zeigen Sie, dass
Xn → X
aus Aufgabe 5.5 für
f (t) = t.
6.2 Monte Carlo Integration III
Betrachten Sie nochmal das Verfahren zur Bestimmung von
R1
0
f (t)dt
Benutzen Sie den Zentralen Grenzwertsatz, um die Wahrscheinlichkeit
n mit Hilfe der Normalverteilung zu approximieren.
10
P (|In − I| ≥ 0.01)
für groÿe
Literatur
[RI]
Thomas Richthammer, Online-Skript zur Vorlesung Einführung in die Wahrscheinlichkeitstheo-
rie, TUM, WiSe 2010/2011
http://www-m5.ma.tum.de/pers/richthammer/wtheorie/TexSkript.pdf
[MU] Thomas Richthammer, Gernot Müller (Übungsleitung), Übungsaufgaben zur Vorlesung Einfüh-
rung in die Wahrscheinlichkeitstheorie, TUM, WiSe 2010/2011
http://www-m5.ma.tum.de/pers/richthammer/wtheorie
[MA] Internetseite ohne Angabe eines Autors
http://www.mathpages.com/home/kmath018/kmath018.htm (23.02.2011)
[RO1] Silke Rolles, Mathias Raer (Übungsleitung), Vorlesung Probability Theory, TUM, SoSe 2010
[RO2] Silke Rolles, Alexander Bauer (Übungsleitung), Vorlesung Statistik: Grundlagen, TUM, SoSe
2010
[TK] Thomas Klein, Stephan Haug (Übungsleitung), Vorlesung Einführung in die Wahrscheinlichkeits-
theorie, TUM, WiSe 2009/2010
[FE]
Stefan Fritsch, Christoph Schwaiger, Ran Zhang, Moritz Voÿ, Ferienkurs zur Vorlesung Stochas-
tik 1 , WiSe 2007/2008, TUM
[KL] Achim Klenke, Wahrscheinlichkeitstheorie, 2. Auage, Springer, 2008
[RA] Gero v. Randow, Das Ziegenproblem, Rowohlt Taschenbuch, 2004
[ME] Roland Meester, A natural introduction to Probability Theory, Second Edition, Birkhäuser Verlag,
2008
11
Herunterladen