Grundlagen der Wahrscheinlichkeitstheorie

Werbung
Grundlagen der Wahrscheinlichkeitstheorie
betrachte Wiederholungen eines Experimentes, gleicher Vorbereitung (z.B. Würfeln, Dart werfen, Doppelspaltexperiment,...)
Zufallsereigniss: Ausgang kann nicht individuell vorhergesagt werden.
gemittelter Ausgang von vielen Wiederholungen desselben Experimentes kann vorhergesagt
werden → Wahrscheinlichkeitstheorie.
mögliche zugrundeliegende Mechanismen:
• statist. Fluktuationen der Anfangs- oder Nebenbedingungen
• absichtlicher Informationsverzicht (Thermodynamik & statist. Physik)
• prinzipielle Unbestimmtheit (Quantenmechanik)
“mittlerer” Ausgang eines Zufallsexperimentes beschrieben durch Wahrscheinlichkeitsmaß P
auf Stichprobenmenge Ω.
Axiomatisierung dieser Ideen:
Die möglichen Ausgänge eines Zufallsexperiment heißen Elementarereignisse ωi
Menge aller Elementarereignisse (Stichprobenmenge): Ω = {ωi }
beobachtbares Ereignis: A ⊂ Ω (beliebige Teilmenge von Ω)
Beispiel. Einmal würfeln: Ω = {1, 2, 3, 4, 5, 6}
Ereignis: Gewürfelte Augenzahl ist gerade: A = {2, 4, 6}
Definition (Wahrscheinlichkeit):
Sei Ω ... Stichprobenmenge,
A = {A ⊂ Ω} ... Menge aller Teilmengen (=beobachtbarer Ereignisse)
(genauer: A = σ-Algebra)
P : A → [0, 1]
heißt Wahrscheinlichkeit, wenn
1.
0 ≤ P (A) ≤ 1
für alle A ∈ A
2.
P (∅) = 0,
3.
P(
∞
[
n=1
An ) =
∞
X
P (Ω) = 1
P (An ) falls An ∩ Am = ∅ für n 6= m
n=1
1
Definition (bedingte Wahrscheinlichkeit)
Seien A, B ⊂ Ω zwei Ereignisse.
die bedingte Wahrscheinlichkeit von A vorausgesetzt B, geschrieben als P (A | B), ist
definiert durch
P (A ∩ B)
P (A | B) =
P (B)
Definition (statistische Unabhängigkeit)
2 Ereignisse A, B ⊂ Ω sind staatistisch unabhängig wenn
P (A ∩ B) = P (A)P (B)
dies ist äquivalent zu P (A | B) = P (A).
Diskreter Wahrscheinlichkeitsraum
Sei Ω = {ω1 , ..., ωn , ...} diskret (z.B. endlich):
1.
pi := P ({ωi }) ∈ [0, 1]
2.
P (∅) = 0,
P (Ω) = 1
3.
P ({ωi1 , ..., ωiN }) =
N
X
pik
k=1
(Ω, A, P ) heißt Wahrscheinlichkeitsraum
Wiederholung von unabhängigen Zufallsexperimenten:
Ein Zufallsexperiment sei beschrieben durch (Ω, A, P )
Die n− fache Wiederholung desselben Experiments ist beschrieben durch den Zufallsraum
Ωn = Ω × ... × Ω, bestehend aus Folgen von Ereignissen (ω1 , ..., ωn ) ∈ Ωn .
Das Wahrscheinlichkeitsmaß auf Ωn ist gegeben durch
P (A1 × ... × An ) = P (A1 ) · ... · P (An )
Beispiel:
Wir würfeln zwei mal, mit Ergebnissen (ω1 , ω2 ) ∈ {1, .., 6} × {1, ..., 6}.
Die Wahrscheinlichkeit, zuerst 1 und dann 2 zu würfeln ist
Die Wahrscheinlichkeit, zwei mal 6 zu würfeln ist
11
66
=
1
.
36
1
.
36
Die Wahrscheinlichkeit, einmal eine eins und einmal eine 2 zu würfeln ist P ({(1, 2), (2, 1)} =
2
2
.
36
Die Wahrscheinlichkeit, beim ersten Wurf eine 1 zu würfeln ist P ({(1, 1), (1, 2), (1, 3), (1, 4), (1, 5), (1, 6)} =
1
, genauso für den zweiten Wurf. Offensichtlich ist das erste und das zweite Ergebnis statistisch
6
unabhängig.
Beispiel: Binomialverteilung.
Wir betrachten ein Ja/Nein Experiment, mit zwei möglichen Ausgängen Ω = {0, 1} mit Wahrscheinlichkeiten p = P ({1}) und 1 − p = P ({0}).
Wir wiederholen das Experiment N mal (unabhängig).
k
Wir suchen die Wahrscheinlichkeit, dass k mal das Ergebnis 1 eintritt. Dafür gibt es
n
mögliche Elementarergebnisse, somit
00
k
N −k N
βk;N := P (“k mal 1 ) = p (1 − p)
k
dies erfüllt offensichtlich
N
X
βk;N = (p + (1 − p))N = 1
k=0
wie es sein muss.
Man kann zeigen, dass für p 1 die Binomialverteilung in die Poisson-Verteilung übergeht:
βk;N ≈ e−λ
λk
k!
für λ = pN = const
(1)
Zufallsvariablen
Definition (Zufallsvariable). Sei Wahrscheinlichkeitsraum (Ω, A, P ) gegeben.
Eine Zufallsvariable
X:Ω → R
ω 7→ X(ω)
(2)
(3)
ist eine (messbare) Abbildung von Ω nach R.
Beispiel. Nummer des Rings der Zielscheibe, in dem der Pfeil steckt.
Definition (Mehrdimensionale Zufallsvariable). Seien X1 , X2 , ..., Xn auf (Ω, A, P ) definierte Zufallsvariable
X : Ω → Rn
ω 7→ (X1 (ω), X2 (ω), ...Xn (ω))
Beispiel. Ω = {Bevölkerung einer Stadt}
X1 . . . Größe,
X2 . . . Gewicht,
X3 . . . Alter
3
(4)
(5)
Definition (Stetige Zufallsvariable). X heißt stetige Zufallsvariable, wenn es eine Wahrscheinlichkeitsdichte p(x) gibt, sodass
Z t
p(x)dx
P ({ω ∈ Ω|X(ω) < t}) = P (X < t) =
−∞
Bemerkung.
Z
∞
lim P ({ω ∈ Ω|X(ω) < t}) =
t→∞
p(x)dx = 1
−∞
(X hat sicher irgendeinen Wert).
Daraus folgt
Z
P (X ∈ [a, b]) =
b
p(x)dx
a
weil
P (X < a) + P (a ≤ x ≤ b) = P (x < b)
P (a ≤ x ≤ b) = P (x < b) − P (x < a)
(6)
Beispiel: Gauss (Normal-) Verteilung
... ist definiert durch
1
P (X ∈ (−∞, z]) = Φµ,σ (z) = √
2πσ
Z
z
dxe
− 12
x−µ
σ
2
−∞
Mehrdimensionale, stetige Zufallsvariable:
Z
P (X ∈ B) =
p(x1 , x2 , ...xn )dx1 ...dxn
B
für B ⊂ Rn .
Erwartungswert und Varianz
1. Definition (Erwartungswert einer stetigen Zufallsvariable X):
Z ∞
hXi =
xp(x)dx
−∞
beziehungsweise, falls Y = g(X),
Z
∞
hY i =
g(x)p(x)dx
−∞
Allgemein gilt hX1 + αX2 i = hX1 i + αhX2 i.
4
(7)
2. Definition (Erwartungswert einer diskreten Zufallsvariable X) .
X
hXi =
X(ωi )pi
i
beziehungsweise, falls Y = g(X),
hY i =
X
g(X(ωi ))pi
i
Definition (Varianz einer Zufallsvariable X):
Die Varianz VX einer Zufallsvariablen X ist definiert durch
VX = h(X − hXi)2 i
Die Streuung oder Standardabweichung von X ist definiert durch
p
p
σX = VX = h(X − hXi)2 i
Beispiel: Gauss (Normal-) Verteilung
Erwartungswert und Varianz der Gauss-Verteilung sind gegeben durch
hXi = µ,
σX = σ
(8)
Beispiel: Binomialverteilung
Wir können die Binomialverteilung mit der folgende Zufallsvariable beschreiben
X : {0, 1}N → N
X((ω1 , ..., ωN )) =
(9)
N
X
ωi
(10)
i=1
X gibt an wie oft das Ergebnis 1 auftritt. Dann ist
k
N −k
P (X = k) = βk;N = p (1 − p)
N
k
(11)
allgemeiner: eine Zufallsvariable X mit Werten in ΩN = {0, 1, ..., N } binomialverteilt (genauer: βk;N -verteilt) , wenn
k
N −k N
P (X = k) = βk;N = p (1 − p)
k
Der Erwartungswert von X ist gegeben durch
X
N
N
X
N!
k
N −k N
hXi =
kp (1 − p)
=
kpk (1 − p)N −k
k
k!(N − k)!
=
k=0
N
X
k=0
N ppk−1 (1 − p)N −k
k=1
= Np
N
−1 X
k=0
(N − 1)!
(k − 1)!(N − k)!
N −1
= Np
k−1
(12)
P
P
wie zu erwarten war. Dies folgt auch leicht aus h Xi i = i hXi i wobei Xi das Resultat des
i-ten Zufallsexperimentes ist.
dies führt zum
5
Gesetz der großen Zahlen
Seien X1 , X2 , ... unabhängige Zufallsvariablen mit identischer Verteilung und Erwartungswert
µ. Definiere die “summierte Zufallsvariable”
XN =
N
X
Xi
i=1
Dann gilt (Bernoulli, ...)
P (|N XN − µ| > ε) → 0
für N → ∞
Dies besagt, dass die “relative Häufigkeit” des Ereignisses ω1 durch p gegeben ist.
Schließlich geben wir nun den zentralen Grenzwertsatz an:
Zentraler Grenzwertsatz
Seien X1 , X2 , ... unabhängige Zufallsvariablen mit identischer Verteilung, Erwartungswert µ
und Varianz σ. Betrachte die Zufallsvariable
XN = X1 + ... + XN
(13)
bzw. die standardisierte Zufallsvariable
ZN =
XN − N µ
√
σ N
(14)
Dann gilt
1
lim P (ZN ≤ z) = Φ0,1 (z) = √
N →∞
2π
Dies erklärt die Universalität der Gauss-Verteilung !
6
Z
z
−∞
1 2
e− 2 x dx
(15)
Herunterladen