Stochastik (BA) Zusammenfassung der Vorlesung

Werbung
Stochastik (BA)
Zusammenfassung der Vorlesung
Ulrich Horst
Institut für Mathematik
Humboldt-Universität zu Berlin
2
0
Allgemeine Orientierung
Ziel der Stochastik: Bereitstellung eines mathematischen Modells, mit dem zufällige Phänomene beschrieben und interpretiert werden können. Ein solches Modell ist gegeben durch (Ω, F, P)
1
Kombinatorik
Bei 2 (verschachtelten) Experimenten mit m ∈ N
und n ∈ N möglichen Ausgängen, lässt sich Ω als
m × n Matrix darstellen, deren Einträge die m · n
Versuchsausgänge repräsentieren.
• Assoziativgesetze:
(E ∪ F ) ∪ G = E ∪ (F ∪ G)
(E ∩ F ) ∩ G = E ∩ (F ∩ G)
• Distributivgesetze:
(E ∪ F ) ∩ G =
Sn(E ∩ G) ∪ (F ∩ G)Sn
also auch: ( i=1 Ei ) ∩ G =
i=1 (Ei ∩ G)
(E ∩ F ) ∪ G
=
(E
∪
G)
∩
(F
∪
G)
Tn
Tn
also auch:( i=1 Ei ) ∪ G = i=1 (Ei ∪ G)
• DeMorgansche Regeln:
Tn
Sn
c
(Si=1 Ei ) = Ti=1 Eic
c
n
n
( i=1 Ei ) = i=1 Eic
Wahrscheinlichkeitsaxiome: Die Anforderungen,
die an ein Wahrscheinlichkeitsmaß P gestellt werden
Verallgemeinerung: betrachten wir r ∈ N Experi- lassen sich in 3 Axiomen zusammenfassen:
mente, wobei der i-te, 1 ≤ i ≤ r Versuch nQ
i Realir
sierungen erlaubt, so ergeben sich insgesamt j=1 nj
• 0 ≤ P(E) ≤ 1, ∀E ⊆ Ω
Versuchsausgänge.
• P(Ω) = 1
Permutationen: Die Möglichkeiten, n verschiedene
Objekte anzuordnen sind n! := n · (n − 1) · . . . 2 · 1
Kombinationen: Die Möglichkeiten, eine relementige Teilmenge aus einer
Grund n-elementigen
n!
menge zu erzeugen sind nr := (n−r)!·r!
• Für
jede
Folge
E1 , E2 , · · · ⊆ Ω gilt:
P
Verwendung findet der soeben definierte Binomialkoeffizient unter anderem im Binomischen Lehrsatz:
n X
n k n−k
(x + y) =
x y
, ∀n ∈ N0
r
n
k=0
Anzahl der ganzzahligen Lösungen von Gleichungen:
n−1
• Es gibt
verschiedene Vektoren
r−1
(x1 , x2 , . . . xr ) mit 0 < xi ∈ N, welche
x1 + x2 + · · · + xr = n erfüllen.
n+r−1
• Es gibt
verschiedene Vektoren
r−1
(x1 , x2 , . . . xr ) mit 0 ≤ xi ∈ N, welche
x1 + x2 + · · · + xr = n erfüllen.
• Es gibt n+r−1
Möglichkeiten, eine ungeordner
te Stichprobe der Länge r aus einer Menge vom
Umfang n zu bilden, wenn ‘mit Zurücklegen’
und ohne Berücksichtigung der Reihenfolge gezogen wird.
2
Wahrscheinlichkeitsaxiome
Rechenregeln für Mengen: Für Ereignisse E, F, G
und Ei , i = 1, . . . n gelten:
∞
[
paarweise
!
Ei
=
∞
X
disjunkter
P(Ei )
i=1
i=1
Diese Eigenschaft wird auch σ-Additivität genannt.
Proposition: Es gelten folgende Eigenschaften:
i) P(∅) = 0
ii) Für
jede
Folge
paarweise
disjunkter
E1 , E2 , . . . , En ⊆ Ω gilt:
!
n
n
[
X
P
Ei =
P(Ei )
i=1
i=1
iii) Für jedes Ereignis E gilt: P(E c ) = 1 − P(E)
iv) Für alle E, F gilt: E ⊂ F → P(E) ≤ P(F )
v) Für alle Ereignisse E, F gilt: P(E∪F ) = P(E)+
P(F ) − P(E ∩ F )
vi) Für Ereignisse E1 , E2 , . . . , En gilt:
P(E1 ∪· · ·∪En ) =
n
X
i=1
X
i1 <i2 <i3
P(Ei )−
X
P(Ei1 ∩Ei2 )+
i1 <i2
P(Ei1 ∩Ei2 ∩Ei3 )−. . . (−1)n+1 P(E1 ∩· · ·∩En )
3. BEDINGTE WAHRSCHEINLICHKEIT UND UNABHÄNGIGKEIT
Laplace-Experimente: Auf einem endlichen
Grundraum Ω = {1, . . . N } nehmen wir alle Elementarereignisse als gleichwahrscheinlich an, also gilt
wegen σ-Additivität:
1
,
N
3
Hüte aus, die nicht die eigenen
sind. Es ergeN
ben sich im ersten
Schritt
und im zweiten
k
1
1
+ 3!
− . . . (−1)N +1 N1 ! )
Schritt (N − k)! 1 − (1 − 2!
Möglichkeiten. Damit ist
|F |
P(F ) =
|Ω|
N
1
1
N +1 1
Dann gilt für ein Ereignis E ⊂ Ω:
k · (N − k)! 1 − (1 − 2! + 3! − . . . (−1)
N! )
=
N!
X
|E|
P(E) =
P({i}) =
1
1
1
1
|Ω|
=
1 − (1 − + − . . . (−1)N +1 )
i∈E
k!
2! 3!
N!
1
Hier bedeutet |E| die Mächtigkeit von E.
≈ e−1
k!
Beispiel Hut-Problem: Die N Hüte von N Persobei großen N für k ∈ N. Diese Zahlen approximieren
nen werden gemischt und jeder zieht zufällig einen.
die Poissonverteilung zum Parameter λ = 1, die wir
Wie groß ist die Wahrscheinlichkeit, dass
später kennenlernen werden.
a) keiner der Besucher seinen eigenen Hut erhält?
b) genau k Besucher ihre eigenen Hüte erhalten?
P({i}) =
1 ≤ i ≤ N.
L: a) Ω = {(i1 , . . . , iN ) : 1 ≤ ij ≤ N, ij 6= ik ,fürj 6=
k} Ereigniss Ej : Besucher Nr. j erhält Hut Nr. ij = j
(seinen eigenen) werde dann beschrieben durch Ej =
{(i1 , . . . , iN ) ∈ Ω : ij = j}1 ≤ j ≤ N berechnet wird
c
) = 1 − P(E1 ∩ · · · ∩ EN ) mithilfe
P(E1c ∩ · · · ∩ EN
der Formel aus Prop. vi). Für n ≤ N seien gegeben
1 ≤ j1 < . . . jn ≤ N Dann ist Ej1 ∩ · · · ∩ Ejn =
{(i1 , . . . , iN ) ∈ Ω : ij1 = j1 , . . . , ijn = jn } mit
|E ∩···∩E |
P(Ej1 ∩ · · · ∩ Ejn ) = j1 |Ω| jn = (NN−n)!
!
Mit Prop. vi) folgt dann,
P(
N
[
Ei ) = N ·
i=1
(N − 1)!
N!
(N − 2)!
N!
(N − 3)!
+ |{(j1 , j2 , j3 ) : 1 ≤ j1 < j2 < j3 ≤ N }| ·
N!
N +1 1
− · · · + (−1)
N!
N
N
(N − 2)!
(N − 3)!
=1−
·
+
·
2
N!
3
N!
1
− · · · + (−1)N +1
N!
1
1
1
= 1 − (1 − + − . . . (−1)N +1 )
2! 3!
N!
≈ e−1
− |{(j1 , j2 ) : 1 ≤ j1 < j2 ≤ N }| ·
für N groß.
b) Ereignis F: Genau k Personen erhalten ihre eigenen Hüte
In Schritt 1 wählen wir k Personen aus, die
ihre eigenen Hüte bekommen und in Schritt 2
wählen wir für die restlichen N − k Personen
3
Bedingte Wahrscheinlichkeit
und Unabhängigkeit
Für Ereignisse E, F gilt:
P(E) = P(E|F ) · P(F ) + P(E|F c ) · P(F c )
Proposition: Seien S
E1 , . . . , En paarweise disjunkte
n
Ereignisse mit Ω = i=1 Ei . Sei E ein weiteres Ereignis. Es gilt Folgendes:
i)
P(E) = P(
n
[
(E ∩ Ei )) =
n
X
i=1
=
n
X
P(E ∪ Ei )
i=1
P(E|Ei ) · P(Ei )
i=1
ii) aus i) folgt für 1 ≤ j ≤ n:
P(E|Ej ) · P(Ej )
P(Ej |E) = Pn
i=1 P(E|Ei ) · P(Ei )
Die Ereignisse E und F heißen unabhängig, falls gilt
P(E|F ) = P(E).
Dies ist äquivalent zur folgenden Definition.
Definition (Unabhängigkeit) Die Ereignisse E und
F heißen unabhängig, falls gilt
P(E ∩ F ) = P(E) · P(F ).
Propositon: Sind die Ereignisse E und F unabhängig, so sind es auch E und F c .
Beispiel (zweifacher fairer Münzwurf:) Sind die folgenden Ereignisse unabhängig:
4
• E : Augensumme ist 7
Dies lässt sich auf Folgen von n bzw. unendlich vielen
Versuchen verallgemeinern. Dabei gilt immer: sind
(Ei )1≤i≤n bzw. (Ei )i∈N Ereignisse, für die Ei nur
von Versuch Nr. i abhängt, so sind (Ei )1≤i≤n bzw.
(Ei )i∈N unabhängig.
• F : der erste Wurf ergibt 4
• G : der zweite Wurf ergibt 3
L:
Beispiel: Eine unendliche Folge von Versuchen
wird durchgeführt. Jeder Versuch hat zwei mögliche
F = {(4, 1), (4, 2), (4, 3), (4, 4), (4, 5), (4, 6)},
Ausgänge, Erfolg und Misserfolg. Die Wahrscheinlichkeit für Erfolg sei p, die für Misserfolg 1 − p, für
G = {(1, 3), (2, 3), (3, 3), (4, 3), (5, 3), (6, 3)}
eine Zahl p ∈ [0, 1]. Wie groß ist die WahrscheinlichWeil E ∩ F = E ∩ G = F ∩ G = {(4, 3)} und
keit, dass
P(E) = P(F ) = P(G) = 16 sind die drei Ereignisse (paarweise) unabhängig. E ist jedoch nicht una) mindestens ein Erfolg in den ersten n Versuchen
abhängig von F ∩ G, denn P(E|F ∩ G) = 1.
erzielt wird?
Definition: Seien E1 , . . . , En bzw. (Ei )i∈N EreignisE = {(1, 6), (2, 5), (3, 4), (4, 3), (5, 2), (6, 1)},
se.
i) E1 , . . . , En sind unabhängig, wenn für jedes
r ≤ n, 1 ≤ i1 < · · · < ir ≤ n gilt:
P(Ei1 ∩· · ·∩Eir ) = P(Ei1 ) · · · P(Eir ) =
r
Y
P(Eij )
j=1
ii) (Ei )i∈N heißen unabhängig, falls für jedes
endliche S ⊂ N gilt:
\
Y
P(
Ei ) =
P(Ei )
i∈S
i∈S
Formalisierung von Versuchsfolgen: Teilexperimente, die sich gegenseitig nicht beeinflussen, nennen
wir Versuche. Ω1 = Ω2 seien endliche Grundräume
von 2 Teilexperimenten, P1 = P2 Wahrscheinlichkeitsmaße darauf. Nehmen wir Ω1 = Ω2 = {1, . . . , N }
an, so betrachten wir als Grundraum für die Aufeinanderfolge der Versuche, das Gesamtexperiment,
Ω = Ω1 × Ω2 = {(i, j) : i ∈ Ω1 , j ∈ Ω2 }. Für
E ⊂ Ω1 × Ω2 setzen wir
X
P(E) =
P1 ({i}) · P2 ({j})
b) genau k Erfolge in den ersten n Versuchen erzielt werden (1 ≤ k ≤ n).
L:a): Sei Ei das Ereignis “Erfolg im iten Versuch”.
Dann ist E1c ∩ · · · ∩ Enc “Misserfolg in Versuchen 1 bis
n” und (E1c ∩ · · · ∩ Enc )c das Ereignis “mindestens ein
Erfolg in den Versuchen 1 bis n.” Also gilt
P((E1c ∩ · · · ∩ Enc )c ) = 1 − P(E1c ∩ · · · ∩ Enc )
n
Y
P(Eic ) = 1 − (1 − p)n
=1−
i=1
b): T
Sei T ⊂ {1, . T
. . , n} mit |T | = k gegeben. Betrachc
te ( i∈T Ei ) ∩ ( i∈T
/ Ei ) : Erfolg in den Versuchen
i ∈ T , Misserfolg in den anderen. Dann gilt wegen
Unabhängigkeit
P((
\
Ei ) ∩ (
i∈T
(i,j)∈E
\
Eic )) =
Y
i∈T
i∈T
/
k
P(Ei ) ·
Y
P(Eic )
i∈T
/
n−k
= p (1 − p)
Für Ereignisse E1 , E2 , die nur von Versuch 1 bzw. 2
abhängen muss gelten E1 = F1 × Ω2 , E2 = Ω1 × F2
wobei F1 ⊂ Ω1 , F2 ⊂ Ω2 . Es folgt nach Definition Sei schließlich E das Ereignis “genau k Erfolge in n
Versuchen”. Dann ist
Unabhängigkeit von E1 und E2
P(E1 ∩ E2 ) = P(F1 × F2 )
X
=
P1 ({i}) · P2 ({j})
E=
[
[(
\
T ⊂{1,...,n},|T |=k i∈T
Ei ) ∩ (
\
Eic )].
i∈T
/
(i,j)∈F1 ×F2
X
=
P1 ({i}) · P2 ({k})
Also:
(i,k)∈F1 ×Ω2
·
X
P1 ({k}) · P2 ({j})
(k,j)∈Ω1 ×F2
= P(E1 ) · P(E2 )
P(E) = |{T ⊂ {1, . . . , n} : |T | = k}| · pk (1 − p)n−k
n
=
· pk (1 − p)n−k .
k
4. ZUFALLSVARIABLEN
4
5
Zufallsvariablen
Damit folgt für n ∈ N :
n n
N
N −2
Eine Zufallsvariable auf einem Wahrscheinlichkeits- P(T > n) = N N − 1
−
+ ...
2
N
N
raum (Ω, F, P) ist eine (messbare) Abbildung
n
N
0
X : Ω → Rn ,
+ (−1)N −1
N
N
n
N
−1
wobei wir Rn mit der Borel-σ-algebra versehen. Die
X
N −i
i+1 N
=
.
(−1)
Definition von Messbarkeit erfordert, dass F selbst
i
N
i=1
eine σ-algebra ist. Wir ignorieren dieses technische
(aber wichtige) Detail im Folgenden. Zufallsvaria- Definition: Der Erwartungswert einer diskreten Zublen, die nur abzählbar viele Werte {xi } mit positiver fallsvariable X mit Werten in R und Massenfunktion
Wahrscheinlichkeit annehmen, heißen diskret. In die- p ist definiert durch:
sem Fall bezeichnen wir mit
X
E(X) =
x · p(x),
pX (xi ) := p(xi ) = P(X = xi )
x:p(x)<0
die Verteilung oder Massenfunktion von X.
sofern diese Reihe wohldefiniert ist, d.h.
Beispiel: Es gebe N verschiedene Arten von CouX
|x| · p(x) < ∞.
pons, die wir (unabhängig von den vorhergehenden
Versuchen) beliebig oft erhalten. Bei jedem Versuch
x:p(x)<0
erhalten wir mit gleicher Wahrscheinlichkeit einen der
N Coupons. Sei T die Anzahl von Coupons, die nötig Beispiel: Für ein Ereignis A sei 1A : Ω −→ R
(
sind, bis man einen kompletten Satz aller N besitzt.
1, ω ∈ A,
Wir suchen die Verteilung von T , d.h.
ω 7−→
0, ω ∈
/A
P(T = n) = pT (n), n ≥ 1
die Indikatorfunktion von A. Es gilt p1A (0) = 1 −
L: Es ist einfacher, P(T > n) für n ∈ N zu be- P(A), p1A (1) = P(A), und damit
rechnen und dann die Formel P(T = n) = P(T >
E(1A ) = 1 · P(A) = P(A).
n − 1) − P(T > n) zu nutzen. Sei dazu
Aj : kein j-Coupon in den ersten n Zügen.
Dann gilt,
{T > n} =
N
[
Aj
Propositon: Sei X eine ZV mit Werten {xi }i∈N und
Verteilung pX . Sei g : R −→ R eine Funktion. Dann
gilt:
∞
X
g(xi )p(xi ),
E(g(X)) =
i=1
j=1
falls
also nach dem Additionstheorem
P(T > N )
= P(
N
[
N
X
Aj )
P(Aj ) −
j=1
X
P(Aj1 ∩ Aj2 ) + . . .
j1 <j2
. . . + (−1)N +1 P(A1 ∩ · · · ∩ An )
Nun gilt für 1 ≤ j ≤ N :
P(Aj ) =
|g(xi )|p(xi ) < ∞.
i=1
j=1
=
∞
X
N −1
N
n
.
Allgemeiner gilt für 1 ≤ j1 < · · · < jk ≤ N :
n
N −k
P(Aj1 ∩ · · · ∩ Ajk ) =
.
N
Rechenregeln: Seien a, b ∈ R, X, Y ZV mit Massenfunktionen pX , pY und existierenden Erwartungswerten. Dann gilt
i) E(aX + b) = aE(X) + b
ii) E(X + Y ) = E(X) + E(Y )
Definition: Sei X einePZV mit Massenfunktion
n
p, n ∈ N, und es gelte
x:p(x)<0 |x| · p(x) < ∞.
Dann heißt
X
E(|X|n ) =
|x|n · p(x)
x:p(x)>0
das n-te Moment von X.
6
Definition: Sei X eine diskrete ZV mit E(X) = µ. sofern
Dann heißt
lim npn = λ.
n→∞
V ar(X) = E([X − µ]2 )
Die Poisson Verteilung findet als Approximation der
Binomialverteilung Anwendung, wenn die Erfolgsdie Varianz von X. Durch Anwenden der Definition wahrscheinlichkeiten klein sind. Für Erwartungswert
des Erwartungswertes erhält man
und Varianz einer Poisson-verteilten ZV X gilt:
V ar(X) = E(X 2 ) − µ2 = E(X 2 ) − E(X)2 .
E(X) = λ und V ar(X) = λ
Rechenregel: Seien a, b ∈ R, X eine diskrete ZV mit
existierender Varianz. Dann gilt
Geometrische Verteilung: Folgt X einer geometrischen Verteilung zum Parameter p, geschrieben
V ar(aX + b) = a2 V ar(X)
X ∼ G(p),
so ist seine Massenfunktion gegeben durch
Spezielle diskrete Verteilungen
pX (n) = (1 − p)n−1 · p.
Binomialverteilung zu den Parametern n ≥ 2 und
Erwartungswert und Varianz sind gegeben durch
p: die Massenfunktion ist gegeben durch
(1 − p)
1
n i
E(X) = und V ar(X) =
pX (i) =
p (1 − p)n−i , 0 ≤ i ≤ n
p
p2
i
Die geometrische Verteilung beschreibt die Wartezeit
Eine binomialverteilte ZV X zu den Parametern auf den ersten Erfolg bei der unabhängingen Wieder(n, p) hat den Erwartungswert
holung eines Experiments.
E(X) = np
und die Varianz
V ar(X) = np(1 − p).
Wir schreiben für eine solche ZV
X ∼ B(n, p).
Negative Binomialverteilung: Eine ZV X heißt
negativ binomialverteilt mit Parametern (r, p), wenn
r
n−r n − 1
pX (n) = p (1 − p)
,n ≥ r
r−1
Erwartungswert und Varianz einer negativ binomialverteilten ZV X zu den Parametern (r, p) sind gegeben durch
r
r(1 − p
E(X) = und V ar(X) =
Hierbei steht B(n, p) für binominalverteilt zu den
p
p
Parametern (n, p). Die Binomialverteilung schreibt
die Anzahl von Erfolgen bei unabhängingen Wieder- Hypergeometrische Verteilung: Eine ZV X
heißt hypergeometrisch verteilt zu den Parametern
holungen des gleiches Experiments.
Poissonverteilung: Die Massenfunktion einer (n, N, m), wenn
N −m
Poisson-verteilten ZV X zum Parameter λ > 0 ist
m
i · n−i
gegeben durch
pX (i) =
N
λk −λ
pX (k) =
e , k ≥ 0.
k!
Wir schreiben in diesem Fall
X ∼ π(λ).
Die Poissonverteilung ist ein Grenzfall der Binomialverteilung: Für eine Folge (Xn )n∈N binomialverteilter
ZV zu den Parametern {(n, pn )}n∈N mit Massenfunktionen (pXn )n∈N gilt für k ≥ 0:
lim pXn (k) =
n→∞
λk −λ
e
k!
n
Erwartungswert und Varianz einer hypergeometrisch
verteilten ZV X mit Parametern (n, N, m) sind gegeben durch
E(X) = n
m
m
m N −n
und V ar(X) = n (1 − )
N
N
n N −1
Eigenschaften von Verteilungsfunktionen: Sei
X eine diskrete ZV. Die Funktion
F (x) := P(X ≤ x), x ∈ R
heisst Verteilungsfunktion (oder kumulative Verteilungsfunktion), abgekürzt CDF. Es gilt:
5. ABSOLUTSTETIGE VERTEILUNGEN
i) F ist monoton wachsend, d.h. F (a) ≤ F (b),
falls a ≤ b
7
Verteilung - die wir später genauer betrachten:
Korollar: Für a, b ∈ R, a < b, gilt
ii) lim F (b) = 1
b→∞
iii)
lim P(a ≤
lim F (b) = 0
n→∞
Xn∗
Zb
≤ b) =
b→−∞
ϕ(x)dx
a
iv) F ist rechtsstetig, d.h. F (bn ) ↓ F (b), falls bn ↓ b. Definition: Eine ZV X heißt absolutstetig verteilt
mit Dichte
f : R → R+ (f Riemann-integrierbar),
R
falls f (t)dt = 1 und
5
Absolutstetige Verteilungen
R
Z
Wir betrachten eine Folge (Xn )n∈N ∼ B(n, pn ) binomialverteilter ZVen. Dann gilt
P(X ∈ B) =
Z
f (t)dt =
B
E(Xn ) = npn sowie V ar(Xn ) = npn (1 − pn ).
Gilt npn → λ < ∞, so kann die Binomialverteilung
für grosse n durch die Poissonverteilung approximiert
werden:
B(n, pn ) ≈ π(λ),
1B (t)f (t)dt
R
für alle (Borel messbaren) Mengen B gilt. Die Funktion
Zx
F : R → [0, 1], x 7−→ P(X ≤ x) =
f (t)dt
−∞
d.h. für kleine p approximieren wir B(n, p) durch
heißt dann Verteilungsfunktion von X. Insbesondere
π(λ). Ist pn ≡ p, so gilt
gilt
Z ∞
E(Xn ) = np ↑ ∞ sowie V ar(Xn ) = np(1 − p) ↑ ∞.
1 − F (x) =
f (t)dt.
x
In diesem Fall müssen wir Xn standardisieren. Dazu Man beachte, dass für eine absolutstetige ZV mit
definieren wir für n ∈ N:
Dichte f und Verteilungsfunktion F gilt
Z x
Xn − np
Xn − E(Xn )
=p
Xn∗ := p
P(X
=
x)
=
f (t)dt = 0
V ar(X
np(1 − p)
n
x
Ziel ist es nun, in geeigneter Weise die Wahrschein- sowie, falls f stetig,
lichkeit
F 0 = f.
k − np
∗
P(Xn = k) = P Xn =
=: pn (k)
−x2
np(1 − p)
Definition: Für f (x) = ϕ(x) = √12π · e 2 heißt X
anzunähern. Dazu betrachten wir nun den Fall p = (standard) normalverteilt. Wir schreiben
0.5, d.h.
1
Xn ∼ B(n, ).
2
Satz von de Moivre/Laplace: Sei c > 0. Sei
−x2
1
ϕ(x) = √ · e 2 ,
2π
X ∼ N (0, 1).
Definition:
Sei X absolutstetig verteilt mit Dichte
R
f . Falls |xf (x)|dx < ∞, heißt
R
x ∈ R.
k− n
2
n
4
Z
E(X) =
Mit xn (k) = √ , 0 ≤ k ≤ n, n ∈ N gilt dann:
r
pn (k)
n
lim
max
− 1 = 0
n→∞ k:|xn (k)|≤c ϕ(xn (k))
4
Als unmittelbare Folgerung erhalten wir, dass die
Verteilungen der standardisierten Variablen Xn∗ mit
n → ∞ gegen eine absolutstetige Verteilung konvergieren - gegen die für die Stochastik zentrale Gauß-
xf (x)dx
R
Erwartungswert von X.
Proposition: Sei X absolutstetig verteilt mit Dichte
fR . Sei g : R → R eine (messbare) Funktion, so dass
|g(x)|f (x)dx < ∞. Dann gilt
R
Z
E(g(X)) =
g(x)f (x)dx.
R
8
Lemma: Sei 0 ≤ Y eine ZV(diskret oder absolutste- Korollar: Seien a, b ∈ R, X eine absolutstetige ZV
tig verteilt). Dann gilt
mit existierender Erwartung, dann gilt
Z∞
E(Y ) =
E(aX + b) = aE(X) + b
P(Y > y)dy.
Definition: Sei
R X eine absolutstetige ZV mit Dichte
f , sodass gilt x2 f (x)dx < ∞. Dann heißt
0
Beispiel: Falls A zu einer Verabredung s Minuten zu
spät kommt, kostet es ihn cs Euro, falls er s Minuten
zu früh kommt, ks Euro. Die Reisezeit von A’s Wohnung zum Treffpunkt ist absolutstetig verteilt mit stetiger Dichte f . Zu welcher Zeit muss A aufbrechen,
um seine Kosten zu minimieren?
L.: Sei X die Reisezeit von A, t die Anzahl der Zeiteinheiten von A’s Aufbruch zur verabredeten Treffzeit. Dann sind A’s Kosten
(
c(X − t), X ≥ t,
Ct (X) =
k(t − X), X ≤ t.
Damit gilt
Z∞
Zt
E(Ct (X))
k(t − x)f (x)dx +
=
c(x − t)f (x)dx
t
0
Zt
Zt
f (x)dx − k
= kt
0
xf (x)dx
0
Z∞
Z∞
xf (x)dx − ct
+c
t
R
V ar(X) = E([X − E(X)]2 ) = E(X 2 ) − E(X)2
die Varianz von X.
Rechenregel: Für a, b ∈ R gilt
V ar(aX + b) = a2 V ar(X).
Definition: Seien α, β ∈ R, α < β. Eine ZV X heißt
gleichverteilt auf [α, β], wenn die Dichte von X die
Form hat
(
1
, α ≤ x ≤ β,
f (x) = β−α
0,
sonst.
Für die Verteilungsfunktion einer so verteilten ZV gilt

0,
x≤α


Rx
1
F (x) =
β−α dt, α ≤ x ≤ β,

α


1,
β ≤ x.
Lemma: Sei X gleichverteilt auf [α, β]. Es ist
f (x)dx
Zβ
t
E(X) =
Folglich auch
1
1
dx = (β + α)
β−α
2
α
d
E(Ct (X))
dt
Zt
f (x)dx + ktf (t) − ktf (t)
= k
2
f (x)dx + ctf (t)
t
=
(c + k)F (t) − c
Die kritischen Punkte der Funktion t 7−→ E(Ct (X))
sind also bestimmt durch die Gleichung
d
E(Ct (X)) = (c + k)F (t) − c,
dt
also durch die Bedingung
F (t) =
x2
1
1
dx = (β 2 + βα + α2 )
β−α
3
α
Z∞
−ctf (t) − c
Zβ
E(X ) =
0
0=
x
c
.
c+k
also
V ar(X) = E(X 2 ) − E(X)2 =
Beispiel (Bertrands Paradoxon): Betrachte eine
zufällige Sekante auf einem Kreis mit Radius r. Mit
welcher Wahrscheinlichkeit ist die Länge der Sekante
größer als die Seite eines gleichseitigen Dreiecks, das
dem Kreis einbeschrieben ist?
Lösung 1: Sei X die Distanz der Sekante vom Ursprung des Kreises; Annahme: X gleichverteilt auf
[0, r]. Dann ist E: die Länge der Sekante ist größer
als die Seite des Dreiecks, d.h. E = {X ∈ [0, r]}, also
Es handelt sich um ein Minimum, da
d2
E(Ct (X)) = (c + k)f (t) ≥ 0.
dt2
1
(β − α)2 .
12
r
r
P(E) = P(X ∈ [0, ]) =
2
Z2
0
1
1
dx =
r
2
5. ABSOLUTSTETIGE VERTEILUNGEN
Lösung 2: Sei θ der Winkel zwischen Sekante und
Tangente an den Kreis in einem Schnittpunkt; Annahme: θ gleichverteilt auf [0, 180]. Dann ist E: Länge
größer als Seite des Dreiecks, d.h. E = {θ ∈ [60, 120]},
also
Z120
P(E) = P(θ ∈ [60, 120]) =
1
1
dx =
180
3
60
Dieses Beispiel zeigt, dass es also wesentlich auf die
Verteilungsannahme ankommt!
9
Herunterladen