Vertiefung Mathematik II für NWI

Werbung
Universität Bielefeld
SS 2007
Fakultät für Mathematik
Prof. Barbara Gentz
Vertiefung Mathematik II für NWI
Elementare Wahrscheinlichkeitsrechnung
Grundbegriffe der Statistik
Maintained by Christian Munier
Inhaltsverzeichnis
I.
Diskrete Wahrscheinlichkeitsräume
3
II. Zufallsgrößen
9
III. Grenzwertsätze
16
IV. Etwas Statistik
21
V. Zufallsgrößen mit Dichten
25
1
Stochastik
• Wahrscheinlichkeitsrechnung
• Statistik
– deskriptive Statistik
– induktive Statistik
Wo treten stochastische Fragestellungen auf?
• Strategien bei Entscheidungsprozessen; Glücksspiel
• Wachstum von Populationen; Vererbung von Eigenschaften
• Nachrichtenkodierung, -übermittlung, möglichst ökonomisch
• Qualitätsstudien
• Messfehler
• probabilistische Analyse von Algorithmen
• average-case-Analysen
• Monte-Carlo-Simulationen
• Warteschlangen
• Mustererkennung
Zufallsexperiment
• reales oder gedankliches Experiment, dessen Ausgang nicht durch logische Gründe vorhergesagt
werden kann
• Experiment, wenn wiederholt unter gleichen Bedingungen nicht stets das gleiche Ergebnis kommt
Beispiele
• Würfeln
• blindes“ Ziehen von Kugeln aus einer Urne
”
• Kartenspiele: Bestimmung der Wahrscheinlichkeit aus Symmmetrien
• Geburten (Junge, Mädchen?)
• Ausschuss in der Tagesproduktion von . . .
• Lebensdauern (Menschen, Glühbirnen, . . . )
• Wirksamkeit von Medikamenten
2
Persönliche Wahrscheinlichkeit“
”
Wette: Ich wette 23:1, dass der Zug pünktlich kommt. Das heißt, für mich ist die Wahrscheinlichkeit,
23
dass der Zug pünktlich kommt 23+1
.
Teil I.
Diskrete Wahrscheinlichkeitsräume
§1. Endliche W-Räume
Beispiel: Werfen zweier Würfel
Würfel 1: rot
Würfel 2: blau
unterscheidbar
Mögliche Ausgänge (i, j); (5, 2) heißt roter (1.) Würfel zeigt 5, blauer (2.) zeigt 2.
Ereignisraum
Ω = {(i, j) : 1 ≤ i, j ≤ 6} = {(1, 1), (1, 2), . . . , (1, 6), . . . , (6, 1), (6, 2), . . . , (6, 6)}
Elementarereignis: (i, j) ∈ Ω
Ereignis
A = {(1, 1), (1, 3), (1, 5), (3, 1), (3, 3), (3, 5), (5, 1), (5, 3), (5, 5)} ∈ Ω
(1)
Bei fairen Würfen: Alle Elementarereignissse in diesem Ω sind gleich wahrscheinlich.
P ((i, j)) =
Wahrscheinlichkeit von A:
P (A) =
1
1
=
36
|Ωk
] günstige Ereignisse
|A|
=
|Ω|
] mögliche Ereignisse
§1.1. Definition: Endl. W-Raum
• Ereignisraum Ω: endl. Menge Ω
• Elementarereignis ω: ω ∈ Ω
• Ereignis: A ⊂ Ω
• Wahrscheinlichkeitsverteilung, -maß P : Abbildung P : P → [0, 1] mit
– P (Ω) = 1 (normiert)
– P (A) ≥ 0 ∀A ∈ P(Ω) (nicht negativ)
– P (A∪B) = P (A)+P (B) falls A, B ∈ P(Ω) und A und B disjunkt, also A∩B = ∅ (additiv)
P ist die Potenzmenge.
P(Ω) = {A : A ⊂ Ω}
P({0, 1}) = {∅, {0}, {1}, {0, 1}}
3
Beispiel: A wie in (1), B = {(4, 4)}
• A ∩ B = ∅ ⇒ A ∪ B = A ∪˙ B Entweder A oder B“
”
• P (A): Ws. von A
• W-Raum: (Ω, P )
§1.2. Lemma: Eigenschaften von P
A, B, Ai ⊂ Ω und AC = {ω ∈ Ω : ω ∈ A}
a) P (AC ) = 1 − P (A)
denn Ω = A ∪˙ AC
b) A ⊂ B ⇒ P (A) ⊆ P (B) ⇒ P (B) = P (B\A) + P (A)
denn B = B\A ∪˙ A
c) P (A\B) = P (A) − P (A ∩ B)
!
n
n
[
X
Ai =
P (Ai ), falls die Mengen Ai paarweise disjunkt sind,
d) P
i=1
i=1
i=1
i=1
d.h. ∀i, j mit i 6= j : Ai ∩ Aj = ∅
!
n
n
X
[
P (Ai )
Ai ≤
e) P
f) P (A ∪ B) = P (A) + P (B) − P (A ∩ B)
§1.3. Bemerkung
P (A) =
P
ω∈A P ({ω})
Beispiel
Werfen von 3 Würfeln - uns interessiert die Augensumme
Ω1 = {3, . . . , 18}
P kann konstruiert werden aus p1 (i) = P ({i})
P1 (A) =
X
p1 (i)
i∈A
Ω2 = (ω1 , ω2 , ω3 ) ∈ {1, . . . , 6}3 = {1, . . . , 6}3
mit P2 Gleichverteilung
Beispiel
(3 Würfel) Augensumme 11 scheint häufiger aufzutreten als 12, obwohl es gleichviele Darstellungen
gibt.
641 3! 651 3!
632 3! 642 3!
551 3 633 3
542 3! 552 3
533 3 543 3!
443 3 444 1
P (11) =
1
= 0.125
8
P (12) =
4
25
≈ 0.1157
63
Urnenmodelle
Ziehen von k Kugeln (unterscheidbar) aus N Kugeln
1) Geordnet mit Zurücklegen
K× ziehen; zurücklegen; merken der Reihenfolge
Ω = {1, . . . , N }k ,
|Ω| = N k
2) Geordnet ohne Zurücklegen
(gezogene Kugeln sind weg)
Ω = {(ω1 , . . . , ωk ) : ωi ∈ {1, . . . , N }, ωi 6= ωj (i 6= j)}
|Ω| = |{z}
N · (N − 1) · . . . · (N − k + 1) =: (N )k
|
{z
}
| {z }
1.Kugel
2.Kugel
k.Kugel
Beachte
(N )N = N ! = Anzahl der Permutationen von {1, . . . , N }
N!
(N )k =
(N − k)!
3) Ungeordnet ohne Zurücklegen Welche Kugeln werden gezogen? (Reihenfolge egal)
Ω = {{ω1 , . . . , ωk } : ωi ∈ {1, . . . , N }, ωi 6= ωj (i 6= j)}
= alle k-elementigen Teilmengen von {1, . . . , N }
(N )k
N
=
|Ω| =
k
k!
4) Ungeordnet mit Zurücklegen
Ω = {{ω1 , . . . , ωk } : ωi ∈ {1, . . . , N }}
|Ω| = |{(ω1 , . . . , ωk ) : 1 ≤ ω1 < ω2 < ωk ≤ N + (k − 1)}| =
(N + k − 1)!
k!(N − 1)!
§2. Bedingte Wahrscheinlichkeiten
Beispiel
Skat-Spiel: 32 Karten, darunter 4 Asse
1) Wahrscheinlichkeit, dass Spieler 1 genau i Asse unter seinen 10 Karten hat
Ω = Teilmengen von {1, . . . , 32} der Größe k = 10
P Gleichverteilung
A = ω ∈ Ω : ∃k1 < k2 < . . . < ki mit ωkj ∈ {1, . . . , 4}
|A|
4
28
32
|Ω| =
, |A| =
, P (A) =
10
i
10 − i
|Ω|
5
2) Spieler 1 will wissen, ob Spieler 2 zwei Asse hat; gegeben die eigenen Karten. Vorliegende Teilinformationen verändern die Wahrscheinlichkeiten. Hat Spieler 1 vier Asse, so ist die gesuchte
Wahrscheinlichkeit = 0.
2
20
2
2
P (Spieler 2 hat zwei Asse | Spieler 1 hat zwei Asse) = 22
10
P (Spieler 2 hat 2 Asse und Spieler 1 hat 2 Asse)
=
P (Spieler 1 hat 2 Asse)
§2.1. Definition
Für A, B ⊂ Ω, P (B) > 0 heißt
P (A|B) :=
P (A ∩ B)
P (B)
heißt bedingte Wahrscheinlichkeit von A gegen B.
Beispiel (Skat)
Ai =Spieler i hat genau 1 As
P (A1 ∩ A2 ∩ A3 ) = P (A1 )P (A2 |A1 )P (A3 |A1 ∩ A2 )
4
27
3
19
2
10
1
9
1
9
1
9
P (A1 ) = , P (A2 |A1 ) = , P (A3 |A1 ∩ A2 ) = 32
22
12
10
10
10
§2.2. Satz
(i) Sei P (B) > 0.
PB (A) := P (A|B) ist W-Maß, A 7→ P (A|B)
Für A ⊂ B C oder P (A) = 0 ist P (A|B) = 0
(ii) Formel von der totalen Wahrscheinlichkeit
S
B1 , . . . , Bn Zerlegung von Ω: Bi paarweise disjunkt und ni=1 Bi = Ω
P (A) =
N
X
P (A|Bk )P (Bk )
k=1
(iii) Formel von Bayes
Vorraussetzung wie in (ii) und P (A) > 0
P (A|Bi )P (Bi )
P (Bi |A) = P
k P (A|Bk )P (Bk )
P (A ∩ Bi )
=
P (A)
(iii)
Beispiel
Flughafen: Sicherheitskontrolle
• Terrorist hat die Ws. 0.98 festgenommen zu werden
• Nichtterrorist hat die Ws. 0.99 nicht festgenommen zu werden
• 0.01% Anteil der Terroristen unter den Passagieren
6
Ges.: Ws., dass Festgenommener Terrorist ist
Ω = {T, P } × {0, 1} T :Terrorist, P :Passagier, 0:Festnahme, 1:darf passieren
F ⊂ Ω Festnahme“ → F = Ω1 × {0} = {(T, 0), (P, 0)}
”
Terrorist ⊂ Ω Person ist Terrorist“ → Terrorist = {T } × Ω2 = {(T, 0), (T, 1)}
”
geg.
P (F |Terrorist) = 0.98
P (F C |TerroristC ) = 0.99
P (Terrorist) = 0.0001
ges. P (Terrorist|F )
P (F ) = P (F |Terrorist)P (Terrorist) + P (F |TerroristC )P (TerroristC )
= 0.98 · 0.0001 + (1 − P (F C |TerroristC )) · (1 − P (Terrorist))
P (F |Terrorist)P (Terrorist)
98
1
P (Terrorist ∩ F )
=
=
≈
P (Terrorist|F ) =
P (F )
P (F )
10097
100
§3. Abhängigkeit
Ws. von A muss nicht von B beeinflusst werden.
P (A|B) =
P (A ∩ B)
= P (A)
P (B)
§3.1. Definition
A, B ⊂ Ω heißen (stochastisch) unabhängig, wenn
P (A ∩ B) = P (A)P (B)
§3.2. Satz
A, B ⊂ Ω, P (B) > 0
A, B unabh. ⇔ P (A ∩ B) = P (A)P (B) ⇔ P (A|B) = P (A)
§3.3. Definition
A1 , . . . , An ⊂ Ω heißen unabhängig, wenn für jede Teilauswahl Ai1 , . . . , Aik
(i1 , . . . , ik ∈ {1, . . . , n} verschieden)
P (Ai1 ∩ . . . ∩ Aik ) = P (Ai1 ) · . . . · P (Aik )
§3.4. Definition
Ωn = {0, 1}n mit
Pn ({(ω1 , . . . , ωn )}) = p
Pn
i=1
ωi
· q n−
Pn
i=1
ωi
für 0 ≤ p ≤ 1 und q = 1 − p ∈ [0, 1] heißt Bernoulli Experiment mit n Versuchen und Erfolgswahrscheinlichkeit p.
7
Beispiel
(
Ak = {insgesamt genau k Erfolge} =
ω = (ω1 , . . . , ωn ) ∈ Ωn :
n
X
)
ωi = k
i=1
Beachte: ∀ω ∈ Ak ist Pn ({ω}) = pk (1 − p)n−k
k
n−k
Pn (Ak ) = |Ak | p (1 − p)
n k
=
p (1 − p)n−k =: b(k; n, p)
k
§3.5. Urnenmodell
r = roteKugeln und s = schwarze Kugeln; rot → Erfolg
Ziehen mit Zurücklegen:
Ohne Zurücklegen:
Bernoulli-Experiment mit Erfolgsws.
s
r
q =1−p=
p=
r+s
r+s
Ziehung nicht mehr unabhängig!
Ak = {rote Kugeln k} bei n Ziehungen ; 0 ≤ k ≤ r, 0 ≤ n − k ≤ s
Ω = {n-elementige Teilmengen der r + s Kugeln}
Gleichverteilung
|Ak | =
s
n−k
| {z }
r
k
| {z }
mögliche rote zu ziehen n − k schwarze
hypergeometrische Verteilung
r
s
k
n−k
|Ak |
P (Ak ) =
=
|Ω|
r+s
n
r + s sehr viel größer als n:
P (Ak ) ≈ b(k; n, p)
mit p =
r
r+s
r
lim
=p
r,s→∞ r + s
r
s
k
n−k
n k
lim
=
p (1 − p)n−k
r,s→∞
k
r+s
n
§4. Abzählbar unendliche W-Räume
Beispiel: Würfeln bis 6 fällt
1
Ω = N = {1, 2, . . .}; p = ; P ({n}) = (1 − p)n−1 · p
6
Prüfen:
∞
X
n=1
P ({n}) = p
∞
X
(1 − p)n−1 = p
n=1
∞
X
n=0
8
(1 − p)n = p
1
=1
1 − (1 − p)
§4.1. Definition
(Ω, P ), Ω höchstens abzählbar
P : P(Ω) → [0, 1]
mit
∞
[
P (A) > 0, P (Ω) = 1, P
!
Ai
=
i=1
∞
X
P (Ai ) für Ai ∩ Aj = ∅(i 6= j)
i=1
(Ω, P ) heißt diskreter W-Raum
Teil II.
Zufallsgrößen
Sei (Ω, P ) ein diskreter W-Raum
§1. Definition
X : Ω → R heißt Zufallsgröße (auf Ω)
Sprechweisen:
{X = z} = {ω ∈ Ω : X(ω) = z}
X nimmt den Wert z an“
”
{X ∈ A} = {ω ∈ Ω : X(ω) ∈ A} X nimmt einen Wert aus A an“
”
{X ≤ z} = {ω ∈ Ω : X(ω) ≤ z} X nimmt einen Wert kleiner gleich z an“
”
Beispiel
a) 2 mal Würfeln, X Augensumme
Ω = {1, . . . , 6}2 , P Gleichverteilung
X : Ω → R;
X((ω1 , ω2 )) := ω1 + ω2 ∈ {2, . . . , 12} ⊂ R
b) Bernoulli-Experiment, X = Anzahl der Erfolge
Ωn = {0, 1}n ;
Pn wie oben;
X(ω1 , . . . , ωn )
n
X
ωi ∈ {0, . . . , n} ⊂ R
i=1
§2. Definition
X : Ω → R (diskrete ZG)
ΩX = X(Ω) = {X(ω) : ω ∈ Ω} = Bild von X“
”
Dann heißt
f : ΩX → [0, 1] mit f (z) := P (X = z)
die Verteilung von X. Vorsicht :
6= Verteilungsfunktion z 7→ P {X ≤ z}
A ⊂ R:
P (X ∈ A) =
X
P (X = z) =
z∈ΩX ∩A
X
z∈ΩX ∩A
9
f (z)
Beispiel
1) Binomialverteilte ZG
X = Anzahl der Erfolge im Bernoulli-Exp., Länge n, Erfolgsws. p
n k
f (k) = P (X = k) =
p (1 − p)n−k
k
X heißt binomialverteilt mit Parametern p und n.
2) Geometrisch verteilte ZG
Wiederholen Bernoulli-Exp. bis zum 1.Erfolg. Wie lange dauert das?
Ω = N, X : Ω → R, X(k) := k
f (n) = P (X = n) = (1 − p)n−1 p
§3. Satz
X sei geometrisch verteilt. Die bedingte Ws.
P (X = n − 1 + k|X ≥ n) = P (X = k|X ≥ 1) = P (X = k), k ≥ 1
Beweis
P (X = n − 1 + k und X ≥ 1)
f (n − 1 + k)
= P∞
P (X ≥ n)
m=n f (m)
∞
∞
∞
X
X
X
f (m) =
(1 − p)m−1 p = p(1 − p)n−1
(1 − p)m = (1 − p)n−1
P (X = n − 1 + k|X ≥ n) =
m=n
m=n
P (X = n − 1 + k|X ≥ n) =
m=0
p)n−1+k+1
p(1 −
(1 − p)n−1
= p(1 − p)k−1 = P (x = k) = f (k)
§4. Definition
Erwartungswert (gewichtetes Mittel)
Sei X eine diskrete ZG
X
EX = E(X) :=
zP (X = z) =
z∈ΩX
X
zf (z)
z∈ΩX
P
heißt Erwartungswert, vorrausgesetzt E(|X|) = z∈ΩX |z| f (z) < ∞. Sonst ex. der Erwartungswert
nicht
X ZG, |X| (ω) := |X(ω)|
§5. Lemma
Falls EX existiert:
X
EX =
zf (z) =
z∈ΩX
X
z∈ΩX
z
X
P ({ω}) =
ω:X(ω)=z
X
P ({ω})X(ω)
ω∈Ω
X Augensumme
EX = 2 ·
EX =
2
1
+3·
+ ...
36
36
X
1
(ω1 + ω2 )P ({(ω1 , ω2 )}) =
36
2
ω∈{1,...,6}
10
6
X
ω1 ,ω2 =1
(ω1 + ω2 )
§6. Satz
a)
c ∈ R, X(ω) = c ∀ω ∈ Ω ⇒ EX = c · P (x = z) = cP (Ω) = c
b)
X, Y ZG, EX, EY ex., a, b ∈ R
⇒ aX + bY ist ZG, ω 7→ aX(ω) + bY (ω) ist Abb. Ω → R
Merkregel: EW ist linear.
Beweis
X
|aX(ω) + bY (ω)| P ({ω}) =
ω∈Ω
= |a|
X
X
(|a| |X(ω)| + |b| |Y (ω)|) P ({ω})
ω∈Ω
|X(ω)| P ({ω}) + |b|
ω∈Ω
X
|Y (ω)| P ({ω})
ω∈Ω
⇒ Reihe ist konvergent ⇒ E(aX + bY ) ex.
Gleiche Rechnung ohne | | (da EW ex., dürfen wir umsortieren):
X
X
X
(aX(ω) + bY (ω)) P ({ω}) = a
X(ω)P ({ω}) + b
Y (ω)P ({ω}) = aE(X) + bE(Y )
ω∈Ω
ω∈Ω
ω∈Ω
Analog:
E
n
X
i=1
!
ai Xi
=
n
X
ai EXi
(falls E(Xi ) ex.)
i=1
Beispiele
a) Bernoulli-Versuch: X ∈ {0, 1}; p := P (X = 1); P (X = 0) = 1 − p
Existiert EW? Ja, X hat nur endl. viele Werte.
EX = 0 · P (X = 0) + 1 · P (X = 1) = p
b) Binomialverteilung → zählt Anzahl der Erfolge in unabh. wiederholtem Bernoulli-Exp., n Wiederholungen, Erfolgsws. p ∈ [0, 1]
Xi ZG, Xi = 1 ⇔ Erfolg im i-ten Versuch (Xi = 0 sonst)
n
X
n k
X :=
Xi = Anzahl der Erfolge P (X = k) =
p (1 − p)n−k
k
i=1
EX? (Existenz klar, da X nur endl. viele Werte annimmt)
!
n
n
X
X
E(Xi ) = n · p
EX = E
Xi =
i=1
i=1
(n Versuche, Erfolgsws. p ⇒ im Mittel np Erfolge)
Einschub
P (A ∪ B) = P (A) + P (B) − P (A ∩ B)
P (A ∪ B ∪ C) = P (A) + P (B) + P (C) − P (A ∩ B) − P (A ∩ C) − P (B ∩ C) + P (A ∩ B ∩ C)
Ein- und Ausschlußprinzip / Siebformal“ / Formel von Sylvester
”
11
Nützliche Notation
A ⊂ Ω (Im Beispiel: A = Aj = {ω ∈ Ω : ωj = j}, Xj = 1Aj )
Indikatorfunktion:
1 für ω ∈ A
1A : Ω → R ZG mit 1A =
0 sonst
Rechenregeln:
1AC = 1 − 1A
(prüfen für ω ∈ A und ω ∈ AC )
1A∩B = 1A · 1B
(1A )2 = 1A
A ∩ B = ∅ ⇒ 1A∪B = 1A + 1B
1A ≤ 1B ⇔ A ⊂ B
E(1A ) = P (A)
(vgl. Bsp. (a))
Beispiel
Geometrisch verteilte ZG X mit
P (X = k) = (1 − p)k−1 · p,
EX?
∞
X
k ∈ {1, 2, 3, . . .}
kP (X = k) < ∞ ⇔ EX ex.
k=1
Konvergiert die Reihe? Quotientenkriterium p ∈]0, 1[
k+1
(k + 1) · P (X = k + 1)
=
(1 − p) ≤ 1
k · P (X = k)
k
für große k. ⇒ Die Reihe konvergiert.
EX =
∞
X
kP (X = k) =
k=1
∞
X
k(1 − p)k+1 p = p · f (1 − p)
k=1
mit
f (s) :=
∞
X
k−1
ks
,
g(s) :=
k=1
∞
X
sk = s ·
k=1
1
1−s
(1 − s) · 1 − (−1) · s
1
d
g(s) =
=
2
ds
(1 − s)
(1 − s)2
∞
∞
∞
X
d X k X d k
d
g(s) =
s =
(s ) =
ksk−1 = f (s)
ds
ds
ds
k=1
k=1
k=1
Also folgt
EX = p · f (1 − p) = p ·
p
1
1
= 2 =
2
(1 − (1 − p))
p
p
§7. Definition
a) Varianz
Var(X) =
X
(z − E(X))2 P (X = z)
z∈ΩX
b) Standardabweichung
p
S(X) = + Var(X)
12
(sonfern Var(X) < ∞)
§8. Lemma
X ZG, E(X) existiere, Var(X) < ∞
a)
(X − E(X))2 ist ZG,
ω 7→ (X(ω) − E(X))2 ∈ R
mit E((X − E(X))2 ) = Var(X)
Beweis:
Var(X) =
X
(z − E(X))2 P (X = z) =
z∈ΩX
X
(X(ω) − E(X))2 P ({ω}) = E((X − E(X))2 )
ω∈Ω
b)
Var(X) = E(X 2 ) − (E(X))2
Beweis:
Var(X) = E((X − E(X))2 ) = E(X 2 − 2X · E(X) + (E(X))2 ) = E(X)2 − 2E(X)E(X) + (E(X))2
c)
c ∈ R : Var(cX) = c2 Var(X)
Beweis:
Var(cX) = E((cx)2 ) − (E(cx))2 = c2 E(X 2 ) − c2 (E(X))2
Beispiel: 1 Bernoulliexperiment mit Erfolgsws. p
1 für Erfolg
X=
⇒ EX = p, Var(X) = E(X 2 ) − (E(X))2 = p − p2 = p(1 − p) = pq
0 sonst
Beachte: Im allg. ist Var(X + Y ) 6= Var(X) + Var(Y )
X = Y : Var(X + Y ) = Var(2X) = 22 Var(X) = 2(Var(X) + Var(Y ))
§9. Definition
X, Y ZG heißen unabhängig, wenn
P (X = a und Y = b) = P ({X = a} ∩ {Y = b}) = P ({X = a})P ({Y = b})
für alle a ∈ ΩX und alle b ∈ ΩY . X1 , . . . , Xn heißen unabhängig, wenn {X1 = a1 }, . . . , {Xn = an }
unabhängig sind ∀ai .
§10. Satz
X, Y unabh. mit ex. EW und Var(X) < ∞, Var(Y ) < ∞.
a) E(X · Y ) ex. und E(X · Y ) = E(X)E(Y )
b) Var(X + Y ) = Var(X) + Var(Y )
13
Beweis
a)
E(X · Y ) =
X
X
z · P (X · Y = z) =
z∈ΩX·Y
=
X
X
z
z∈ΩX·Y
P ({X = x} ∩ {Y = y})
x∈ΩX
y∈ΩY
x·y=z
x · yP ({X = x})P ({Y = y})
x∈ΩX
y∈ΩY
=
X
xP ({X = x}) ·
x∈ΩX
X
yP ({Y = y}) = E(X) · E(Y )
y∈ΩY
b)
Var(X + Y ) = E((X + Y )2 ) − (E(X + Y ))2 = E(X 2 + 2XY + Y 2 ) − (E(X) + E(Y ))2
= E(X 2 ) + 2E(X)E(Y ) + E(Y 2 ) − (E(X))2 − 2E(X)E(Y ) − (E(Y ))2
= Var(X) + Var(Y )
Analog
X1 , . . . , Xn paarweise unabh.
⇒ Var(X1 + . . . + Xn ) = Var(X1 ) + . . . + Var(Xn )
Beispiel n-mal wiederholtes Bernoulliexp. mit Parameter p
X = Anzahl der Erfolge ist binomialverteilt.
1 mit Ws. p
X = X1 + . . . + Xn , X i =
,
0 mit Ws. 1 − p
n
X
EX = np, Var(X) =
Var(Xi ) = npq
Xi unabh.
i=1
Standardabweichung:
√
npq ist viel kleiner (für große n) als EW np.
Allgemein Die Standardabweichung misst, wie weit X abweichen kann von E(X), ohne dass diese
Abweichung sehr unwahrscheinlich ist.
§11. Satz (Tschebyscheff-Ungleichung)
X diskrete ZG, EW ex., Var(X) < ∞
P ({|X − E(X)| ≥ c}) ≤
Var(X)
c2
∀c > 0
Beweis
P ({|X − E(X)| ≥ c}) =
X
P (X = z) ≤
...
z∈ΩX
|z−E(X)|≥c
≤
X
z∈ΩX
... ≤
X z − E(X) 2
|
1
Var(X)
c2
14
c
{z
≥1
}
P (X = z)
Beispiel
X ∈ {−k, 0, k} mit P (X = −k) =
1
1
= P (X = k) und P (X = 0) = 1 − 2
2k 2
k
E(X) = 0
Var(X) = (−k − E(X))2 P (X = −k) + (0 · 0)2 P (X = 0) + (+k − 0)2 P (X = k)
1
= 2k 2 2 = 1 ∀k
2k
Var(X)
1
P ({|X − EX| ≥ c}) = P ({|X| ≥ c}) = 2 =
k
c2
Ungleichung ist scharf“. Mit c = k + 1:
”
P ({|X − EX| ≥ c}) = 0 <
Var(X)
1
=
c2
(k + 1)2
Allgemein
Var(X)
mit c = a · S(X)
c2
1
Var(X)
⇒ P ({|X − E(X)| ≥ aS(X)}) ≤ 2
= 2
2
a (S(X))
a
P ({|X − E(X)| ≥ c}) ≤
Fazit Die Ws., dass eine ZG mit ex. EW und endl. Varianz um mehr als aS(X) von EW abweicht,
ist ≤ a12 .
Beispiel Wie lange müssen sie würfeln, bis sie mit Ws. ≥ 0.99 sicher sein können, dass die relative
Häufigkeit einer 6 um nicht mehr als 0.01 von 61 abweicht?
X1 , X 2 , . . .
mit Xi =
1 falls 6 im i-ten Wurf
0 sonst
rel. Häufigkeit = n1 Sn = n1 (X1 + . . . + Xn )
ges. n mit P ({ n1 Sn − 61 ≥ 0.01}) ≤ 1 − 0.99
1
1
1
1
E
Sn = E(Sn) = · nE(X1 ) = p =
n
n
n
6
1
1
Var n Sn
1002
5
2 1
Sn − 1 ≥ 0.01
=
100
Var(Sn)
=
·n·
⇒P
=
n
2
2
2
1
6
n
n
36
100
1002 1
1
=5·
· ≤ 0.01 =
36 n
100
⇒ n ≥ . . . (auflösen)
§12. Satz (Markoff-Ungleichung)
X diskrete ZG, k ≥ 1, E(|X|2 ) ex. (< ∞)
E |X − E(X)|k
P ({|X − E(X)| ≥ c}) ≤
ck
15
(k = 2: Tschebyscheff-Ungl.)
§13. Satz ( Gesetz der großen Zahlen“)
”
(n)
(n)
(Die Verteilung von Xk
(n)
= µ ∀i∀n
∀n ∈ N: ZG X1 , . . . , Xn
(n)
darf von n abhängen)
Vorraussetzung
(n)
• EXi
ex. mit EXi
(n)
• Var(Xi ) = σ 2 < ∞ ∀i∀n
(n)
(n)
(n)
(n)
(n)
• {Xi }i sind paarweise unkorreliert, d.h. ∀i, j(i 6= j) ist E(Xi Xj ) = E(Xi )E(Xj ) (Ist
insbesondere für paarweise unabh. ZG erfüllt.)
(n)
Sn := Xi
+ . . . + Xn(n)
Dann gilt:
1
=0
∀ε > 0 : lim P
n Sn − µ ≥ ε
n→∞
Beispiel: (Bestimmen einer Erfolgsws.)
Xi unabh. (unabh. Wiederholungen); P (Xi = 1) = p, P (Xi = 0) = 1 − p, EXi = p ← gesucht!
rel. Anzahl der Erfolge
1
n→0
S n − p ≥ ε
→ ∞
P
n
1
n Sn
=
Beweis ε > 0 fest
1
1
1
1
P
≤ 2 Var
Sn = 2 2
n Sn − µ ≥ ε
ε
n
ε n
Var(S )
| {z n}
=
≤
1
ε 2 n2
· nσ 2 =
σ2
ε2
P∞
i=1
(n)
Var(Xi
)
1 n→0
→ 0
n
Warnung: Es gilt im allg. nicht, dass P ( n1 Sn 6= µ) → 0
Teil III.
Grenzwertsätze
§1. Satz (Poissonscher Grenzwertsatz)
n→∞
Gilt für n, pn , n ∈ N, pn ∈]0, 1[ : n · pn → α > 0, so gilt
αk −α
n k
n→∞
b(k; n, pn ) :=
pn (1 − pn )n−k → pk (α) :=
e
k
k!
§2. Definition
Eine ZG X mit Werten in N0 = {0, 1, 2, . . .} und P (X = k) = pk (α) heißt poissonverteilt zum
Parameter α > 0.
16
Beachte
∞
X
pk (α) =
k=0
∞
X
αk
k=0
k!
e−α = eα · e−α = 1
§3. Lemma
X poissonverteilt mit Parameter α > 0
EX =
∞
X
kP (X = k) =
k=0
= αe−α
∞
X
k=1
∞
X
αl
l=0
l!
∞
X αk−1
αk −α
e = ae−α
k·
k!
(k − 1)!
k=1
= αe−α eα = α
Var(X) = . . . = α
Bedeutung: Für jedes n: ZG X (n) binomialverteilt mit Parametern n, pn
P (X (n) = k) = b(k; n, pn )
EX (n) = n · pn =: αn → α
(n → ∞)
npn αn = αn 1 −
→α
Var(X (n) ) = npn (1 − pn ) = αn 1 −
n
n
(n → ∞)
D.h.: Für n → ∞ mit npn = α → α verhalten sich EX (n) und Var(X (n) ) wie für die Poissonverteilung. Der Satz sagt
n k, n α := np ⇒ P (X (n) = k) ≈ pk (np)
Beispiel 1: Betrachte seltenes Ereignis: Roulette mit 36 Zahlen und einer Null
• Setze immer auf Zahl → Erfolgsws.
1
37
• Tue das 37 mal
• Erwartete Anzahl von Erfolgen: 1
• Berechne Ws. für k Erfolge in 37 Wiederholungen
1
k b(k; 37, )
pk (1)
37
37
1
=: c ≈ 0.363 ≈ 0.368 = e−1
1−
0
e−1
37
 
37 1
1 36


≈ c = e−1
1−
e−1
1
37
37
1
 
2 37
1
1 35 1 37 · 36 37 2
1
1 −1


2
1−
=
c ≈ e−1
e
37
37
2 37 · 37 36
2
2
2
• Spielen 3x so lange: 111 = 3 · 37 Spiele
17
Analog:
1
k b k; 111,
37
pk (3)
0 c3 ≈ e−3
e−3
110
1
111
1−
≈ 3e−3 3e−3
1
37
37
9
32 −3
2 ≈ e−3
e
2
2!
Historisches Beispiel 2 Im alten Preußen ... 20 Jahre, 10 Regimente ; 200 Regimentsjahre
Tote k Anzahl Jahren mit k Toten durch Hufschlag 200pk α, α = 0.61
0
109
109
1
65
66
22
20
2
3
3
4
1
1
4
≥5
0
0
Seien n Soldaten in einem Regiment. Für jeden einzelnen Soldaten ist die Ws., durch Hufschlag
umzukommen sehr klein und unabh. von den anderen.
; Anzahl der Toten im Jahr ≈ b(k; n, p) ≈ pk (α)
Gesetz der großen Zahlen: Bei 200 Wiederholungen:
Anzahl der Jahre mit k Toten ≈ 200pk (α)
Beispiel 3
• Bakterien unter Mikroskop (Teilchen)
• Gitternetz
• Im Schnitt µ Teilchen pro Quadrat
• N (groß) Quadrate(klein)
• Wie viele Teilchen landen in meinem“ Quadrat?
”
Modellierung µN Teilchen werden unabh. und zufällig in die N Quadrate verteilt. p = N1 = die Ws.,
dass ein bestimmtes Teilchen in einem bestimmten Quadrat landet.
Gesucht: Ws., dass in einem vorher ausgewählten Quadrat k Teilchen sind. b k; µN, N1
viele Quadrate → N ist groß
• n = N µ ist groß
• nk
• n α := n · p = N µ ·
b k; µN, N1 ≈ pk (µ)
1
N
=µ
18
Beispiel 4
• eingehende Aufträge auf einem Rechner
• Im Schnitt α Aufträge pro Zeiteinheit
• In einem kleinen Zeitfenster der Länge δ 1: Ws. einen Auftrag in diesem Fenster zu beobachten
δ→0
≈ α · δ(= α · δ + h(δ) mit h(δ) → 0)
•
N [
k
k−1
[0, t) =
· t,
·t
N
N
k=1 |
{z
}
Länge Nt
• Für jedes dieser Zeitintervalle: Ws., dass Auftrag eingeht ≈ α ·
t
N
Anmerkung N groß: Wir wollen annehmen, dass max. ein Auftrag eintrifft pro Intervall der Länge
t
N.
→ pro Intervall: 0 oder 1 Auftrag → Bernoulli-Exp.
Anmerkung Unabhängigkeit dieser Ereignisse
→ In jedem Intervall: Bernoulli-Exp. mit Erfolgsws. α Nt
Ws. für k eintreffende Aufträge im Zeitintervall [0, t):
αt
αt
b k; N,
≈ pk N ·
= pk (αt)
N
N
Poissonverteilung wird benutzt für Modelle von Warteschlangen
Beispiel Poissonapproximation geht für kleine p, d.h. seltene Ereignisse. Was tun für festes p und
große n? Wie groß ist die Ws., dass eine Münze in 100 Würfen genau 50-mal Kopf zeigt?
100
50
50 50 1
1
1
1
1
100
=
≈ 0.0796 ≈
≈
100
50 2
2
2
12.5
13
Poissonapproximation
k = 50, n = 100, p =
1
⇒ α = np = 50
2
Besser
b(k; n, p) ≈ √
pk (α) =
(k−np)2
1
−
e αnpq = 0.07979 . . .
2πnpq
q = 1 − p, np Erwartungswert, npq Varianz
§4. Satz (lokaler zentraler Grenzwertsatz)
Es seien 0 < p < 1, q = 1 − p,
(n)
Xk
αk −α
e ≈ 0.056
k!
k − np
:= √
npq
für 0 ≤ k ≤ n
19
A > 0 sei eine Konstante. Dann gilt:
b(k;
n,
p)
lim ˛ sup˛ − 1 = 0
(n) 2
n→∞ ˛ (n) ˛
)
(X
− k2
k:˛Xk ˛≤A √ 1
e
2πnpq
Def.
Notation: f ∼ g ⇔ limn→∞
Satz sagt:
f (n)
g(n)
=1
(n) 2
)
b(k; n, p) ∼ √
(X
1
k
e− 2
2πnpq
(n) gleichmäßig für alle k mit Xk ≤ A.
Beispiel 1200-mal
Ws., genau k-mal eine Sechs zu werfen? n = 1200, p = 16 , q = 56 :
(n)
X2 50
200 − np
= √
=0
npq
X2 50
(n)
√
6
= 5√
10
k
b(k; n, p)
Approximation
200 0.0308886 . . . 0.030901 . . .
250 0.0000244 . . . 0.0000170 . . .
• Wenn wir wissen wollen, ob 150 bis 250 Erfolge?
• Wenn wir wissen wollen, ob mindestens 250 Erfolge?
§5. Satz (Satz von DeMoivre-Laplace)
Sei Sn die Anzahl der Erfolge in Bernoulli-Exp. der Länge n mit Erfolgsws. p. ∀ Konstanten a, b mit
−∞ < a < b < ∞ gilt:
Z b
Z b
x2
1
Sn − np
lim P a < √
≤b = √
e− 2 dx =
ϕ(x) dx
n→∞
npq
2π a
a
Zentraler Grenzwertsatz mit
x2
1
ϕ(x) = √ e− 2
2π
Z y
Φ(y) :=
ϕ(x) dx
Dichte der Standardnormalvert.
Verteilungsfkt. der Standardnormalvert.
−∞
ϕ Gaußsche Glockenkurve, Φ Fläche unter ϕ (Φ(0) = 21 )
Φ(x) → 0 für x → −∞,
Φ(x) → 1 für x → +∞
Für z < 0 gilt
Z
z
Z
ϕ(x) dx = 1 −
Φ(z) =
−∞
∞
Z
|z|
ϕ(x) dx = 1 −
ϕ(x) dx = 1 − Φ(|z|)
−∞
z
Beispiel Eine Fabrik stellt Chips her mit Ausschußrate 10%. Mit welcher Ws. sind unter 400 Chips
mehr als 50 defekt?
Bernoulli-Exp.: Länge n = 400
1
Erfolgsws.: p = 10
(Ws. für defekten Chip)
Gesucht: P (Sn > 50) (Sn Anzahl der Erfolge)
20
NR
n = 400, p =
√
q = 1 − p, np = 40, npq = 40 · q = 36, npq = 6
Z ∞
50 − np
Sn − np
>
≈
P (Sn > 50) = P
ϕ(x) dx
√
√
5
npq
npq
3
5
= 1 − Φ(1.67) = 1 − 0.9525 ≈ 0.05
=1−Φ
3
1
10 ,
Ws. von 5% mehr als 50 defekte Chips zu haben. Mit welcher Wahrscheinlichkeit sind zwischen 35
und 45 defekte Chips zu haben.
34 − 40
Sn − np
45 − 40
P (34 < Sn ≤ 45) = P
< √
≤
6
npq
6
5
− Φ(−1) ≈ 0.64
≈Φ
6
Beispiel 2 Kinos konkurrieren um Kunden
1000 Kunden, die sich unabh. voneinander für eines der Kinos entscheiden, mit gleicher Ws.. Wie viele
Plätze sollte jedes Kino haben, damit die Ws., einen Kunden abweisen zu müssen, höchstends 1% ist?
Betrachte Kino A und B mit jeweils N Plätzen.
Bernoulli-Exp. mit Länge n = 1000, Erfolgsws. 12 (Kunden wählt Kino A). Sn = Anzahl von Kunden,
die ins Kino A wollen.
gesucht: N mit P (Kino A oder Kino B müssen Kunden abweisen) ≤ 1%. Kein Kunde wird abgewiesen, wenn:
1.) Kino A hat genug Platz: Sn ≤ N
n − N ≤ Sn ≤ N
2.) Kino B hat genug Platz: n − Sn ≤ N
Gesucht: N mit
1 − P (n − N ≤ Sn ≤ N ) ≤ 1% ⇔ P
Sn − np
N − np
n − N − np
≤ √
≤ √
√
npq
npq
npq
≥ 99%
n = 1000, p = 21 , q = p, np = 500, npq = 250
Sn − np
N − 500
500 − N
√
≤ √
≤ √
≥ 99%
P
250
250
250
Die linke Seite ist näherungsweise
N − 500
N − 500
N − 500
N − 500
√
√
√
−Φ − √
=Φ
− 1−Φ
Φ
250
250
250
250
N muss so sein, dass
2Φ
N − 500
√
250
− 1 ≥ 99%
bzw. Φ
N − 500
√
250
≥
1.99
= 0.995
2
Somit folgt
N − 500
√
250
Tabelle
2
.58 ⇒ N = 558
Teil IV.
Etwas Statistik
Beispiel Außersinnliche Wahrnehmung (AW) (1973 UC Davis)
Computer wählt zufällig eines von vier Symbolen. Medium soll das gewählte Symbol mitteilen.
21
15 Medien; je 500 Versuche → 7500 Versuche, Ergebnis: 2006 Erfolge
Statistik kann uns nicht sagen, ob AW im Spiel war. Umformulierung: Kann das Ergebnis reiner Zufall
sein?
Modell Ω = {0, 1}, N = 500 · 15 = 7500, ΩN := ΩN
Anzahl der Erfolge SN : ΩN → {0, . . . , N }, SN ist b(k; N, p)-verteilt, p = p0 := 41 entspricht reinem
Raten der Symbole.
Frage: Gilt für die Medien p > 41 ?


2006 − 1875 
SN − N p 0
≈ 1 − Φ(3, 49) = 0.0002
Pp0 {SN ≥ 2006} = Pp0  p
≥ q
N p0 (1 − p0 )
1875 · 34
Entweder: p 6= p0 = 41 oder wir haben etwas extrem Seltenes beobachtet. Falls p 6=
oder Fehler in der Durchführung Exp. (Modell evtl. falsch).
Nehmen wir an mit Ws. γ tritt AW ein und in den anderen Fällen wird geraten:
1
4
entweder AW
3
1
1
p = γ + (1 − γ) = γ +
4
4
4
Schätzen von γ:
2006
Anz. Erfolge, die beobachtet wurden
=
7500
Anzahl Versuche
3
1
⇒ γ̂ erfüllt p̂ = γ̂ + , p̂ wie oben ⇒ gamma
ˆ
= 0.023
4
4
Demnach idt der Einfluss der außersinnlichen Wahrnehmung auf Erfolg sehr klein.
p̂ =
Achtung: γ̂ ist geschätzt, muß nicht der wahre Wert sein.
Typscher Zugang: Suche Intervall (Konfidenz- oder Vertrauensintervall), sodass γ̂ mit Ws. ≥ 1 − α in
diesem Intervall liegt.
Hier: [0.006; 0.040] ist ein Intervall, das γ̂ mit Ws. ≥ 0.99 enthält.
Formulieren Zufallsexp., n-mal unabh. wiederholt
X1 , . . . , Xn unabh. und identisch verteilt, Xi haben alle Verteilung µ0 , die von einem Parameter Θ
abh..
Xi Bernoulli-Var.: Xi ∼ b(k; 1, p) (Θ = p)
Beispiel
1.Ziel
Wir wollen eine Größe g(Θ) ∈ R abschätzen.
g : Θ 7→ g(Θ) ∈ R
Beispiel g(Θ) = Θ: Wir wollen p schätzen
Falls wir Varianz von Xi schätzen wollen: g(p) = p(1 − p)
Schätzer dafür ist Abb. T = Rn → R
Beispiel
Wenn wir schätzen wollen:
n
T (X1 , . . . , Xn ) :=
1X
Xi
n
i=1
Dann ist
n
T (X1 , . . . , Xn ) =
1
1X
Sn =
Xi =: p̂
n
n
i=1
22
§1. Definition
Ein Schätzer T heißt erwartungstreu, falls
EΘ (T (X1 , . . . , Xn )) = g(Θ) ∀Θ
Beispiel
Ep (T (X1 , . . . , Xn )) = Ep
1
Sn
n
n
=
1X
EXi = p = g(p)
n
i=1
Wenn wir Varianz schätzen wollen?
1.Versuch
2

n
n
1 X
1X 
T̃2 (X1 , . . . , Xn ) :=
Xj
Xi −
n
n
i=1
j=1
Erwartungstreu?
Yi unabh. ⇒ Var
X
n
X
i = 1n Yi =
Var(Yi )
i=1

2
n
n
1X 
1X 
E Xi −
Xj
Ep (T̃2 (X1 , . . . , Xn )) =
n
n
i=1
j=1

2 
2 

n
n
X
X
1
1
1
= E X 1 −
X j   = E  1 −
X1 −
Xj  
n
n
n
j=1
j=2

2 
n
n
 
X
X
1
1
1
1
=E  1−
(Xj − EXj ) + 1 −
EXj 
(X1 − EX1 ) −
EX1 −


n
n
n
n
j=2
j=2


n
1X
1

(X1 − EX1 ) −
(Xj − EXj )
= Var
1−
n
n
j=2
2 X
n
1
1
(n − 1)2
1
Var(X1 ) −
= 1−
−
(n
−
1)
Var(Xj ) = Var(X1 )
n
n
n2
n2
j=2
1
= Var(X1 ) 2 (n − 1)[n − 1 − 1]
n
Sollte sein = Var(X1 ) n−1
n für erwartungstreuen Schätzer Var(X1 )
2.Versuch
T2 (X1 , . . . , Xn ) :=
1
n−1
n
X
Erwartungstreu?
23
i=1
2
n
X
X i − 1
Xj 
n

j=1
Testen Hypothesen
1) Verteilungshypothese:
X1 , X2 , . . . , Xn unabh., identisch verteilt. Verteilung ist . . . mit Parameter Θ.
Im Beispiel X1 , . . . , Xn sind unabh. Bernoulli-Ver. mit Erfolgsws. p.
1) Nullhypothese: (Die möchten wir verwerfen)
H0 : Θ ∈ H0 (Parameterbereich). Im Beispiel: H0 =
3) Alternative:
H1 : Θ ∈ H1 (Parameterbereich). Im Beispiel: H1 =
1
4
(typisch H0 Intervall)
1
4, 1
4) Teststatistik:
T : Rn → R
typischerweise: T groß → Nullhypothese abgelehnt, T klein → Nullhypothese kann nicht verworfen werden
Im Beispiel: T (X1 , . . . , Xn ) = n1 Sn
5 Verwerfungsbereich:
Bereich von Werten, für den wir Nullpaare verwerfen. Typischerweise:
R = {X ∈ Rn : T (X) ≥ tc }
n
R = {X ∈ R : T (X) ≥
t+
c
(einseitig)
oder T (X) ≤
t−
c }
(zweiseitig)
R muss bestimmt werden!
6) Gütefunktion:
einseitig
β(Θ) := PΘ {(X1 , . . . , Xn ) ∈ R} = PΘ {T (X1 , . . . , Xn ) ≥ tc }
Im Beispiel: = Pp n1 Sn ≥ tc
β(Θ) ist die Ws., dass die Nullhypthese verworfen wird.
7) Niveau des Tests:
Test hat Niveau α (kleine Zahl in ]0; 1[) falls β(Θ0 ) ≤ α. D.h., falls die Nullhypothese wahr
wäre/ist, dann ist die Ws., dass die Nullhypothese verworfen wird ≤ α.
8) Fehler 1.Art:
β(Θ0 ) = Ws., dass die Nullhypothese fälschlicherweise verworfen wird
9) Fehler 2.Art:
supΘ∈H1 1 − β(Θ) Ws., dass Nullhypothese nicht verworfen wird, obwohl sie falsch ist.
Aufgabe Daten aus Exp. 1973:
Testen sie die Nullhypothese H0 = 14 gegen die Alternative H1 =
1
4, 1
zum Niveau 0.05.
1) Verteilungsannahme...
2) Nullhypothese...
3) Alternative...
4) Teststatistik T (X1 , . . . , Xn ) :=
Pn
i=1 Xi
Rechnen (tc ist so zu bestimmen, dass β(p0 ) ≤ α ≤ 0.05):
Sn − np
tc − np
tc − np
≥ √
≈1−Φ √
β(p) = Pp {T (X1 , . . . , Xn ) ≥ tc } = Pp
√
npq
npq
npq
24
Wir brauchen: Φ
Tabelle:
t√
c −np0
np0 q
≤ 1 − 0.05, da β(p0 ) ≤ 5% sinvoll.
tc − np0
tc − 1875
tc − np0
≥ 1.65, √
=q
⇒ tc ≥ 1936.88 . . .
√
np0 q
np0 q
3
· 1875
4
⇒ Verwerfungsbereich R = {X : T (X) ≥ tc }
Daten einsetzen: Anzahl der Erfolge 2006:
T (X1 , . . . , Xn ) = 2006 (Erfolge) für konkrete Daten ⇒ liegt im Verwerfungsbereich
Schlussfolgerung: Wir verwerfen die Nullhypothese. Die Daten stützen mit Ws. ≥ 1−5% die Annahme,
dass reiner Zufall im Spiel war nicht.
Teil V.
Zufallsgrößen mit Dichten
Zur Erinnerung: Sn ∼ b(n; k, p)
Zentraler Grenzwertsatz:
Z b
x2
Sn − np
1
n→∞
√ e− 2 dx = Φ(b) − Φ(a)
≤b
→
P a< √
npq
2π
a
| {z }
=:ϕ(x)
Rb
Wir wollen modellieren: ZG mit P (a < X ≤ b) = a ϕ(x) dx
Geht das?
Falls ja:
Z a
1
n→∞
ϕ(x) dx → 0
P (X = a) ≤ P a − ≤ X ≤ a =
1
n
a−
n
Konstruktion derartiger ZG mit W-Raum → Maßtheorie
§1. Definition
ϕ : R → [0, ∞) stückweise stetig heißt Dichte, falls
Erinnerung
R∞
−∞ ϕ(x) dx
= 1.
g ≥ 0, Riemannintegrierbar auf [−N, N ] ∀N
Z
N
für N → ∞
g(x) dx
−N
RN
Falls ( −N g(x) dx)N unbeschränkt:
Z
∞
g(x) dx := +∞
−∞
Sonst:
Z
∞
Z
g(x) dx := lim
−∞
N
N →∞ −N
Vorsicht: Geht so nur weil g ≥ 0!
25
g(x) dx ∈ [0, ∞)
Beispiel
2
(a) ϕ(x) =
x
√1 e− 2
2π
ist Dichte:
– ϕ≥0
– ϕ (stückweise) stetig
R∞
– −∞ ϕ(x) dx = 1 (ungeprüft)
heißt Dichte der Standardnormalverteilung
(b)
ϕ(x; µ, σ 2 ) = √
1
2πσ 2
e−
(x−µ)2
2σ 2
, σ > 0, µ ∈ R
σ groß: Glockenkurve wird flacher, ϕ(x; µ, σ) ist Dichte:
– ϕ≥0
– stetig
R∞
– −∞ √
1
e−
2πσ 2
−(x−µ)2
2σ 2
dx =
2
− y2
√1
−∞ 2π e
R∞
dy = 1
ϕ(x; µ, σ) Dichte der Normalverteilung mit Erwartungswert µ und Varianz σ 2 .
(c) a < b
1
b−a
f (x) :=
0
für x ∈ [a; b]
sonst
a
Z
P (X < a) =
f (x) dx = 0, P (X > b) = 0
−∞
Z d
P (c < X < d) =
Z
f (x) dx =
c
c
d
d−c
1
dx =
b−a
b−a
Dichte der uniformen/gleichförmigen Verteilung auf [a; b].
d)
f (x) =
0
für x < 0
−αx
αe
für x > 0
– f ≥0
– f ist stückweise stetig
R∞
R∞
– −∞ f (x) dx = 0 αe−αx dx = 1
f heißt Dichte der Exponentialverteilung zum Parameter α.
§2. Definition
f sei eine Dichte. Eine ZG X heißt absolut stetig mit Dichte f , falls
Z y
FX (x) = P (X ≤ x) =
f (y) dy ∀x ∈ R
−∞
FX (x) heißt Verteilungsfunktion von X.
26
Folgerung
Z
b
P (a < X ≤ b) = P (X ≤ b) − P (X ≤ a) =
Z
a
f (x) dx −
−∞
b
Z
f (x) dx =
−∞
f (x) dx
a
Bemerkung
• Wir beweisen die Existenz solcher ZG nicht.
• Wir spezifizieren den W-Raum nicht.
• Für diskrete ZG: FX (x) = P (X ≤ x)
x→∞
• Falls X eine Dichte hat: FX stetig, monoton wachsend, FX (x) → 1, FX (x)
x→−∞
→
0
Definition
FX stetig heißt die ZG X ist stetig.
• Dichte ist nicht eindeutig: Wir dürfen die an endlich vielen Punkten ändern
1
b−a für x ∈]a; b[
˜
f (x) =
0
sonst
ist ebenfalls Dichte der uniformen Verteilung auf [a, b].
• Falls Dichte stetig in y, so ist
dFX (x) f (y) =
dx x=y
Sprechweise ZG heißt normalverteilt, uniform verteilt, exponentialverteilt, wenn sie die entsprechende Dichte hat.
§3. Definition
Sei X eine ZG mit Dichte f
R∞
(a) Falls −∞ |x| f (x) dx < ∞: Der Erwartungswert existiert und ist definiert als
Z
∞
E(X) :=
Z
xf (x) dx = lim
N
N →∞ −N
−∞
(b) Falls EW ex.:
Z
xf (x) dx
∞
(x − EX)2 f (x) dx
Var(X) :=
−∞
Beispiel
(a) X sei normalverteilt
Z
EX =
∞
Z 0
Z ∞
2
2
2
1
1
− x2
− x2
− x2
√ xe
dx = √
xe
dx +
xe
dx = 0
2π
2π −∞
∞
0
Z ∞
Z ∞
2
2 ∞
2
1
1
2 − x2
− x2 − x2
Var(X) = √
x e
dx = − √
xe
−
1·e
dx = 1
2π −∞
2π
−∞
x=−∞
27
(b) Normalverteilung ϕ(x; µ, σ 2 ), y := x−µ
σ , dx = σdy
Z ∞
Z
(x−µ)2
y2
1
−
2
EX = √
xe 2σ dx = −∞∞ (µ + σy)e− 2 dy
2πσ 2 −∞
Z
Z ∞
= −∞∞ µϕ(x) dx + σ
yϕ(y) dy = µ
−∞
Var(X) = √
Z
1
2πσ 2
∞
2
(x−µ)2
−
2σ 2
(x − µ) e
−∞
1
dx = √
2π
(c) Exponentialverteilung zum Parameter α > 0
Z ∞
Z
−αx
−αx ∞
|x| αe
dx = xe
+
0
0
∞
Z
∞
σ 2 y 2 e−
y2
2
dy = σ 2
−∞
e−αx dx =
0
1
α
Ziel Unabh. definieren
Vorbereitung
n ∈ N, g : Rn → [0, ∞), (x1 , . . . , xn ) 7→ g(x1 , . . . , xn ) ∈ [0, ∞)
z.B. n = 2
g : R × R → [0, ∞), g = 1A×B (A, B Intervall)
1 für (x, y) ∈ A × B = Rechteck
= 1A (x)1B (y)
g(x, y) =
0 sonst
Halten x2 , . . . , xn fest, variieren nur x1 :
x1 7→ h(x1 ) := g(x1 , x2 , . . . , xn ), h : R → [0, ∞)
z.B. h(x1 ) = 1A (x1 )1B (x2 ), wobei 1B (x2 ) ∈ {0, 1}, aber fest sobald x2 gewählt.
x2 ∈ B hx2 (x1 ) = 1A (x1 )
x2 wählt eine dieser Funktionen
x2 ∈
/ B hx2 (x1 ) = 0
Falls integrierbar:
Z
∞
Z
∞
g(x1 , . . . , xn ) dx1 :=
−∞
z.B.
h(x1 ) dx1
−∞
 R
 ∞ 1 (x ) dx (x ∈ B)
1
2
−∞ A 1
g(x1 , x2 ) dx1 =
R∞

−∞
(x2 ∈
/ B)
−∞ 0 dx1 = 0
Z
∞
Integral ist Fkt. von (x2 , . . . , xn )
Z ∞
g(x1 , . . . , xn ) dx1 =: G(x2 , . . . , xn )
−∞
z.B.
G(x2 ) = Länge(A) · 1B (x)
Wir wiederholen das Spiel
Z ∞
Z ∞ Z ∞
G(x2 , . . . , xn ) dx2 =
g(x1 , . . . , xn ) dx1 dx2 = . . .
−∞
−∞
−∞
Z ∞
Z ∞
=
...
g(x1 , . . . , xn ) dx1 . . . dxn = Konstante
−∞
z.B.
Z
∞
Z
G(x2 ) dx2 = Länge(A)
−∞
−∞
∞
1B (x2 ) dx2 = Fläche von A × B
|
{z
}
Länge von B
−∞
28
Wichtige Beobachtung Reihenfolge der Integration im Bsp. nicht wichtig.
Z ∞ Z ∞
Z ∞ Z ∞
g(x1 , x2 ) dx1 dx2 =
g(x1 , x2 ) dx2 dx1
−∞
Allgemein
−∞
−∞
−∞
Für nicht negative Fkt., die stückweise stetig“ sind und für große |x| klein werden, gilt:
”
Z ∞
Z ∞
Z ∞
Z ∞
...
g(x1 , . . . , xn ) dx1 . . . dxn =
...
g(x1 , . . . , xn ) dxi1 . . . dxin
−∞
−∞
−∞
−∞
für alle Permutationen (i1 , . . . , in ) von {1, . . . , n}. Für C ⊂ Rn gilt:
Z
Z
Z ∞
Z ∞
. . . g(x1 , . . . , xn ) dx1 . . . dxn =
...
1C (x1 , . . . , xn )g(x1 , . . . , xn ) dxi1 . . . dxin
−∞
−∞
| {z }
C
Im Beispiel:
g = 1A×B (mit A = B = [0, 1]), C = Dreieck = {(x1 , x2 ) ∈ Q : x2 ≤ x1 }, Q = A × B
ZZ
Z ∞Z ∞
g(x1 , x2 ) dx1 dx2 =
1C (x1 , x2 )1Q (x1 , x2 ) dx1 dx2 = . . . 1C∪Q (x1 , x2 ) . . .
C
−∞ −∞
Z ∞Z ∞
1
1
=
1C (x1 , x2 ) dx1 dx2 =
da C Fläche 2 hat
2
−∞ −∞
x2 fest:
1C (x1 , x2 ) =
1 für x1 ≥ x2
0 für x1 < x2
für x2 ∈ [0, 1]
Bzw.
ZZ
1C (x1 , x2 ) = 1 ⇔ 0 ≤ x2 ≤ x1 ≤ 1 ⇔ 0 ≤ x2 ≤ 1, x1 ∈ [x2 , 1]
Z ∞ Z ∞
g(x1 , x2 ) dx2 =
1[x2 ,1] (x1 ) dx1 1[0,1] (x2 ) dx2
−∞
∞
C
−∞
Z
Z
(1 − x2 )1[0,1] (x2 ) dx2 =
=
−∞
1
(1 − x2 ) dx2 =
0
1
2
Zurück zur Wahrscheinlichkeitsrechung
§4. Definition
a) f : Rn → [0, ∞) heißt n-dim. Dichte, wenn
Z ∞
Z ∞
...
f (x1 , . . . , xn ) dx1 . . . dxn = 1
−∞
−∞
b) n ZG X1 , . . . , Xn
Eine Funktion f heißt gemeinsame Dichte der ZG X1 , . . . , Xn , wenn
Z a1
Z an
f (x1 , . . . , xn ) dx1 . . . dxn ∀ai ∈ R
(∗) P (X1 ≤ a1 , . . . , Xn ≤ an ) =
...
−∞
−∞
Mit C := (−∞, a1 ] × . . . × (−∞, an ] ist
Z
(∗) = P ((X1 , . . . , Xn ) ∈ C) =
Z
. . . f (x1 , . . . , xn ) dx1 . . . dxn
| {z }
C
– Formel (*) gilt für allg. Mengen C
– Es gibt pathologische Fälle C, wo das nicht geht.
29
Beispiel
C Menge in R2
1)
Z
∞
Z
∞
1C (x, y) dx dx = Flächeninhalt = |C| =
...
−∞
−∞
1
für das Dreieck
2
2) Uniforme Verteilung auf C
f (x, y) :=
1
1C (x, y) ist Dichte
|C|
3) Frage: Wie groß ist Ws., dass x + y ≤ 12 ?
1
⊂C
D = (x, y) ∈ C : x + y ≤
2
1
1 1
1
|D|
1
2 · 2 · 4
P X +Y ≤
=
=
=
1
2
|C|
8
2
Nach Definition
ZZ
Z ∞Z ∞
1
1
(∗) := P X + Y ≤
=
f (x, y) dx dy =
1D (x, y)1C (x, y) dx dx
2
|C| −∞ −∞
D
Z ∞Z ∞
=2
1D (x, y) dy dx
−∞
−∞
(x, y) ∈ D :
x fest, x ∈ [0, 21 ]: 0 ≤ y ≤ x und y ≤
1
2
Z
(∗) = 2
0
Z
=2
0
1
4
0≤y≤x≤1
x + y ≤ 12
1
2
− x ⇔ 0 ≤ y ≤ min{x, 21 − x}
!
Z min{x, 1 −x}
Z 1
2
2
1
1 dy dx = 2
min x, − x dx
2
0
0
!
1
Z 1
Z 1
2 1
4
x2 4
1
x dx +
( − x) dx = 2 · 2
x dx = 4 · =
1
2
2 0
8
0
4
30
Herunterladen