Stochastik (BA) Zusammenfassung der Vorlesung

Werbung
Stochastik (BA)
Zusammenfassung der Vorlesung
Ulrich Horst
Institut für Mathematik
Humboldt-Universität zu Berlin
2
0
Allgemeine Orientierung
Ziel der Stochastik: Bereitstellung eines mathematischen Modells, mit dem zufällige Phänomene beschrieben und interpretiert werden können. Ein solches Modell ist gegeben durch (Ω, F, P)
1
Kombinatorik
Bei 2 (verschachtelten) Experimenten mit m ∈ N
und n ∈ N möglichen Ausgängen, lässt sich Ω als
m × n Matrix darstellen, deren Einträge die m · n
Versuchsausgänge repräsentieren.
• Assoziativgesetze:
(E ∪ F ) ∪ G = E ∪ (F ∪ G)
(E ∩ F ) ∩ G = E ∩ (F ∩ G)
• Distributivgesetze:
(E ∪ F ) ∩ G =
Sn(E ∩ G) ∪ (F ∩ G)Sn
also auch: ( i=1 Ei ) ∩ G =
i=1 (Ei ∩ G)
(E ∩ F ) ∪ G
=
(E
∪
G)
∩
(F
∪
G)
Tn
Tn
also auch:( i=1 Ei ) ∪ G = i=1 (Ei ∪ G)
• DeMorgansche Regeln:
Tn
Sn
c
(Si=1 Ei ) = Ti=1 Eic
c
n
n
( i=1 Ei ) = i=1 Eic
Wahrscheinlichkeitsaxiome: Die Anforderungen,
die an ein Wahrscheinlichkeitsmaß P gestellt werden
Verallgemeinerung: betrachten wir r ∈ N Experi- lassen sich in 3 Axiomen zusammenfassen:
mente, wobei der i-te, 1 ≤ i ≤ r Versuch nQ
i Realir
sierungen erlaubt, so ergeben sich insgesamt j=1 nj
• 0 ≤ P(E) ≤ 1, ∀E ⊆ Ω
Versuchsausgänge.
• P(Ω) = 1
Permutationen: Die Möglichkeiten, n verschiedene
Objekte anzuordnen sind n! := n · (n − 1) · . . . 2 · 1
Kombinationen: Die Möglichkeiten, eine relementige Teilmenge aus einer
Grund n-elementigen
n!
menge zu erzeugen sind nr := (n−r)!·r!
• Für
jede
Folge
E1 , E2 , · · · ⊆ Ω gilt:
P
Verwendung findet der soeben definierte Binomialkoeffizient unter anderem im Binomischen Lehrsatz:
n X
n k n−k
(x + y) =
x y
, ∀n ∈ N0
r
n
k=0
Anzahl der ganzzahligen Lösungen von Gleichungen:
n−1
• Es gibt
verschiedene Vektoren
r−1
(x1 , x2 , . . . xr ) mit 0 < xi ∈ N, welche
x1 + x2 + · · · + xr = n erfüllen.
n+r−1
• Es gibt
verschiedene Vektoren
r−1
(x1 , x2 , . . . xr ) mit 0 ≤ xi ∈ N, welche
x1 + x2 + · · · + xr = n erfüllen.
• Es gibt n+r−1
Möglichkeiten, eine ungeordner
te Stichprobe der Länge r aus einer Menge vom
Umfang n zu bilden, wenn ‘mit Zurücklegen’
und ohne Berücksichtigung der Reihenfolge gezogen wird.
2
Wahrscheinlichkeitsaxiome
Rechenregeln für Mengen: Für Ereignisse E, F, G
und Ei , i = 1, . . . n gelten:
∞
[
paarweise
!
Ei
=
∞
X
disjunkter
P(Ei )
i=1
i=1
Diese Eigenschaft wird auch σ-Additivität genannt.
Proposition: Es gelten folgende Eigenschaften:
i) P(∅) = 0
ii) Für
jede
Folge
paarweise
disjunkter
E1 , E2 , . . . , En ⊆ Ω gilt:
!
n
n
[
X
P
Ei =
P(Ei )
i=1
i=1
iii) Für jedes Ereignis E gilt: P(E c ) = 1 − P(E)
iv) Für alle E, F gilt: E ⊂ F → P(E) ≤ P(F )
v) Für alle Ereignisse E, F gilt: P(E∪F ) = P(E)+
P(F ) − P(E ∩ F )
vi) Für Ereignisse E1 , E2 , . . . , En gilt:
P(E1 ∪· · ·∪En ) =
n
X
i=1
X
i1 <i2 <i3
P(Ei )−
X
P(Ei1 ∩Ei2 )+
i1 <i2
P(Ei1 ∩Ei2 ∩Ei3 )−. . . (−1)n+1 P(E1 ∩· · ·∩En )
3. BEDINGTE WAHRSCHEINLICHKEIT UND UNABHÄNGIGKEIT
Laplace-Experimente: Auf einem endlichen
Grundraum Ω = {1, . . . N } nehmen wir alle Elementarereignisse als gleichwahrscheinlich an, also gilt
wegen σ-Additivität:
P({i}) =
1
,
N
1 ≤ i ≤ N.
ihre eigenen Hüte bekommen und in Schritt 2
wählen wir für die restlichen N − k Personen
Hüte aus, die nicht die eigenen
sind. Es ergeN
ben sich im ersten
Schritt
und im zweiten
k
1
1
+ 3!
− . . . (−1)N +1 N1 ! )
Schritt (N − k)! 1 − (1 − 2!
Möglichkeiten. Damit ist
|F |
P(F ) =
|Ω|
N
1
1
N +1 1
k · (N − k)! 1 − (1 − 2! + 3! − . . . (−1)
N! )
=
N!
1
1
1
N +1 1
=
1 − (1 − + − . . . (−1)
)
k!
2! 3!
N!
1
≈ e−1
k!
Dann gilt für ein Ereignis E ⊂ Ω:
P(E) =
X
P({i}) =
i∈E
|E|
|Ω|
Hier bedeutet |E| die Mächtigkeit von E.
Beispiel Hut-Problem: Die N Hüte von N Personen werden gemischt und jeder zieht zufällig einen.
Wie groß ist die Wahrscheinlichkeit, dass
a) keiner der Besucher seinen eigenen Hut erhält?
3
bei großen N für k ∈ N. Diese Zahlen approximieren
die Poissonverteilung zum Parameter λ = 1, die wir
später kennenlernen werden.
b) genau k Besucher ihre eigenen Hüte erhalten?
L: a) Ω = {(i1 , . . . , iN ) : 1 ≤ ij ≤ N, ij 6= ik ,fürj 6=
k} Ereigniss Ej : Besucher Nr. j erhält Hut Nr. ij = j
(seinen eigenen) werde dann beschrieben durch Ej =
{(i1 , . . . , iN ) ∈ Ω : ij = j}1 ≤ j ≤ N berechnet wird
c
) = 1 − P(E1 ∩ · · · ∩ EN ) mithilfe
P(E1c ∩ · · · ∩ EN
der Formel aus Prop. vi). Für n ≤ N seien gegeben
1 ≤ j1 < . . . jn ≤ N Dann ist Ej1 ∩ · · · ∩ Ejn =
{(i1 , . . . , iN ) ∈ Ω : ij1 = j1 , . . . , ijn = jn } mit
|E ∩···∩E |
P(Ej1 ∩ · · · ∩ Ejn ) = j1 |Ω| jn = (NN−n)!
!
Mit Prop. vi) folgt dann,
3
Bedingte Wahrscheinlichkeit
und Unabhängigkeit
Für Ereignisse E, F gilt:
P(E) = P(E|F ) · P(F ) + P(E|F c ) · P(F c )
Proposition: Seien S
E1 , . . . , En paarweise disjunkte
n
Ereignisse mit Ω = i=1 Ei . Sei E ein weiteres Ereignis. Es gilt:
i)
P(
N
[
Ei ) = N ·
i=1
(N − 1)!
N!
(N − 2)!
N!
(N − 3)!
+ |{(j1 , j2 , j3 ) : 1 ≤ j1 < j2 < j3 ≤ N }| ·
N!
1
− · · · + (−1)N +1
N!
N
(N − 2)!
N
(N − 3)!
=1−
·
+
·
N!
3
N!
2
1
− · · · + (−1)N +1
N!
1
1
1
= 1 − (1 − + − . . . (−1)N +1 )
2! 3!
N!
≈ e−1
P(E) = P(
b) Ereignis F: Genau k Personen erhalten ihre eigenen Hüte
In Schritt 1 wählen wir k Personen aus, die
(E ∩ Ei )) =
i=1
− |{(j1 , j2 ) : 1 ≤ j1 < j2 ≤ N }| ·
für N groß.
n
[
=
n
X
n
X
P(E ∪ Ei )
i=1
P(E|Ei ) · P(Ei )
i=1
ii) Für 1 ≤ j ≤ n:
P(E|Ej ) · P(Ej )
,
P(Ej |E) = Pn
i=1 P(E|Ei ) · P(Ei )
wobei diese Aussage direkt aus i) folgt.
Unabhängige Ereignisse: Die Ereignisse E und F
heißen unabhängig, falls gilt P(E|F ) = P(E). Dies ist
äquivalent zur folgenden
Definition von Unabhängigkeit: Die Ereignisse E
und F heißen unabhängig, falls gilt
P(E ∩ F ) = P(E) · P(F )
.
4
Propositon: Sind die Ereignisse E und F unabhängig, so sind es auch E und F c .
Beispiel, zweifacher fairer Münzwurf: Sind die
folgenden Ereignisse unabhängig?
E : Augensumme ist 7, F : der erste Wurf ergibt 4,
G : der zweite Wurf ergibt 3
L:
Unabhängigkeit von E1 und E2
P(E1 ∩ E2 ) = P(F1 × F2 )
X
=
P1 ({i}) · P2 ({j})
(i,j)∈F1 ×F2
X
=
P1 ({i}) · P2 ({k})
(i,k)∈F1 ×Ω2
·
E = {(1, 6), (2, 5), (3, 4), (4, 3), (5, 2), (6, 1)},
X
P1 ({k}) · P2 ({j})
(k,j)∈Ω1 ×F2
F = {(4, 1), (4, 2), (4, 3), (4, 4), (4, 5), (4, 6)},
= P(E1 ) · P(E2 )
G = {(1, 3), (2, 3), (3, 3), (4, 3), (5, 3), (6, 3)}
Weil E ∩ F = E ∩ G = F ∩ G = {(4, 3)} und
P(E) = P(F ) = P(G) = 16 sind die drei Ereignisse (paarweise) unabhängig. E ist jedoch nicht unabhängig von F ∩ G. In der Tat gilt F ∩ G ⊂ E
und somit
Dies lässt sich auf Folgen von n bzw. unendlich vielen
Versuchen verallgemeinern. Dabei gilt immer: sind
(Ei )1≤i≤n bzw. (Ei )i∈N Ereignisse, für die Ei nur
von Versuch Nr. i abhängt, so sind (Ei )1≤i≤n bzw.
(Ei )i∈N unabhängig.
Beispiel: Eine unendliche Folge von Versuchen
wird durchgeführt. Jeder Versuch hat zwei mögliche
Ausgänge, Erfolg und Misserfolg. Die WahrscheinDefinition: Seien E1 , . . . , En bzw. (Ei )i∈N Ereignis- lichkeit für Erfolg sei p, die für Misserfolg 1 − p, für
eine Zahl p ∈ [0, 1]. Wie groß ist die Wahrscheinlichse.
keit, dass
i) E1 , . . . , En sind unabhängig, wenn für jedes
a) mindestens ein Erfolg in den ersten n Versuchen
r ≤ n, 1 ≤ i1 < · · · < ir ≤ n gilt:
erzielt wird?
P(E|F ∩ G) = 1.
P(Ei1 ∩ · · · ∩ Eir ) =
r
Y
b) genau k Erfolge in den ersten n Versuchen erzielt werden (1 ≤ k ≤ n)?
P(Eij ).
j=1
ii) (Ei )i∈N
heißen
unabhängig,
jede endliche Menge S ⊂ N gilt:
P(
\
Ei ) =
i∈S
Y
falls
L:a): Ei : Erfolg im iten Versuch, E1c ∩· · · ∩Enc : Misserfolg in Versuchen 1 bis n, (E1c ∩ · · · ∩ Enc )c : mindesfür tens ein Erfolg in den Versuchen 1 bis n. Also gilt
P(Ei )
i∈S
Formalisierung von Versuchsfolgen: Teilexperimente, die sich gegenseitig nicht beeinflussen, nennen
wir Versuche. Ω1 = Ω2 seien endliche Grundräume
von 2 Teilexperimenten, P1 = P2 Wahrscheinlichkeitsmaße darauf. Nehmen wir Ω1 = Ω2 = {1, . . . , N }
an, so betrachten wir als Grundraum für die Aufeinanderfolge der Versuche, das Gesamtexperiment,
Ω = Ω1 × Ω2 = {(i, j) : i ∈ Ω1 , j ∈ Ω2 }. Für
E ⊂ Ω1 × Ω2 setzen wir
P(E) =
X
P1 ({i}) · P2 ({j})
(i,j)∈E
Für Ereignisse E1 , E2 , die nur von Versuch 1 bzw. 2
abhängen muss gelten E1 = F1 × Ω2 , E2 = Ω1 × F2
wobei F1 ⊂ Ω1 , F2 ⊂ Ω2 . Es folgt nach Definition
P((E1c ∩ · · · ∩ Enc )c ) = 1 − P(E1c ∩ · · · ∩ Enc )
n
Y
P(Eic ) = 1 − (1 − p)n
=1−
i=1
b): T
Sei T ⊂ {1, . T
. . , n} mit |T | = k gegeben. Betrachc
te ( i∈T Ei ) ∩ ( i∈T
/ Ei ) : Erfolg in den Versuchen
i ∈ T , Misserfolg in den anderen. Dann gilt wegen
Unabhängigkeit
\
\
Y
Y
P((
Ei ) ∩ (
Eic )) =
P(Ei ) ·
P(Eic )
i∈T
i∈T
/
i∈T
k
i∈T
/
n−k
= p (1 − p)
Sei schließlich E: genau
S k Erfolge inTn Versuchen. Dann ist E = T ⊂{1,...,n},|T |=k [( i∈T Ei ) ∩
T
c
( i∈T
/ Ei )]. Also nach Kapitel 1
P(E) = |{T ⊂ {1, . . . , n} : |T | = k}| · pk (1 − p)n−k
n
=
· pk (1 − p)n−k .
k
Herunterladen