Wahrscheinlichkeitstheorie

Werbung
Wahrscheinlichkeitstheorie
Mitschrift nach der VO von
Korrekturen bitte an Stefan Lendl <[email protected]>
WS 2011/12
Inhaltsverzeichnis
1 Fundamentale Begriffe
2
2 Kombinatorik
2.1 Multiplikations-Regel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2 Permutationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.3 Kombination . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3
3
3
4
3 Mengenalgebra
5
4 Bedingte Wahrscheinlichkeiten
6
5 Klassische Verteilungen
5.1 Diskrete Verteilungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.2 Stetige Verteilungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.3 Zweidimensionale Verteilungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1
11
11
16
19
1
Fundamentale Begriffe
Beispiel. 2 Würfel
6
1
=
36
6
Definition. Der Ergebnisraum Ω ist die Menge aller möglichen Resultate eines Experiments.
P {Summe von Augenzahlen = 7} =
Beispiel. 3 Urnen, 3 Kugeln
27 Möglichkeiten
Definition. Ein Ereignis ist eine Teilmenge A ⊂ Ω.
Definition. Ein Ergebnis eines Experemts ist ω ∈ Ω. Jedes Ergebnis hat die gleiche Eintrittswahrscheinlichkeit (nicht immer?).
Beispiel.
A = {Erste Augenzahl ist 6}, B = {Zweite Augenzahl ist 6}
P (A oder B)
Definition. Die Wahrscheinlichkeit vom Ereignis A nennt man das Maß der Teilmenge A.
P (A oder B) = P (A ∪ B)
P (A und B) = P (A ∩ B)
P (A tritt nicht ein) = P (AC )
Beispiel. Wähle Punkte x, y auf Intervall [0, 1] zufällig.
Wie groß ist die Wahrscheinlichkeit, dass P {|x − y| ≤ 21 }?
Ω = {(x, y) : 0 ≤ x ≤ 1, 0 ≤ y ≤ 1}
A=
1
(x, y) : 0 ≤ x ≤ 1, 0 ≤ y ≤ 1, |x − y| ≤
2
−
1
1
<y−x<
2
2
x−
1
1
≤y ≤x+
2
2
1
1
y = x + ,y = x −
2
2
⇒ P (A) =
3
4
Beispiel. 3 Münzen
P (Kopf) = 0.8
3-Mal werfen
P (Genau 2 Köpfe)
KKK: 0.512
ZZZ: 0.128
KZK: 0.128
KZZ: 0.032
ZKK: 0.128
ZKZ: 0.032
ZZK: 0.032
ZZZ: 0.008
2
Beispiel. 3 Urnen, 3 Kugeln
P {keine leere Urnen} =
6
27
P {keine leere Urnen} =
1
10
Ununterscheidbare Kugeln
Definition. F ist Algebra wenn
A, B ∈ F ⇒ A ∪ B, A ∩ B, Ac ∈ F
F ist σ−Algebra wenn diese Relationen für unendliche viele Ereignisse gültig sind.
A1 , A2 , · · · ∈ F ⇒ A1 ∪ A2 ∪ . . . , A1 ∩ A2 ∩, · · · ∈ F
Definition. (Axiome von Kolmogorov) Ein Wahrscheinlichkeitsraum ist ein Tripel (Ω, A, P ). Dabei ist Ω eine nicht leere Menge, A eine σ−Algebra von Teilemen aus Ω und P ein durch P (Ω) = 1
normiertes Maß, das Wahrscheinlichkeitsmaß.
Definition. (Laplace Situation) Alle Ausgänge A ⊆ Ω sind gleich wahrscheinlich.
2
Kombinatorik
Geg.: n-elementige Menge M , |M | = n.
Frage: Wie viele Möglichkeiten gibt es aus M k Elemente zu ziehen.
Beispiel.
M = {1, 2, 3}, n = 3, k = 2
|M | = n, k Elemente
mit zurücklegen
ohne zurücklegen
geordnet
(1,1) (1,2) (1,3) (2,1) (2,2) (2,3) (3,1) (3,2) (3,3)
(1,2) (1,3) (2,1) (2,3) (3,1) (3,2)
Formeln zur Berechnung:
|M | = n, k Elemente
geordnet
mit zurücklegen
nk
n!
k
ohne zurücklegen
n = (n−k)!
2.1
nk
k!
nicht geordnet
k+n−1
k
n!
= k!(n−k)!
= nk
Multiplikations-Regel
Betrachte folgende Mengen A,B:
A = {a1 , . . . , am }, B = {b1 , . . . , bn }
Die Anzahl von Paaren (ai , bj ), i, j ∈ {1, 2, 3, . . . } ist m × n.
2.2
Permutationen
Beispiel. (Geburtstagsproblem)
n = 25
P {kein Paar} =
365364363 . . . 341
≈ 0.48
365365 . . . 365
3
nicht geordnet
{1,1} {1,2} {1,3} {2,2} {2,3} {3,3}
{1,2} {1,3} {2,3}
⇒ P {Es gibt ein Paar} = 0.52
Trick:
1
2
24
P =1 1−
1−
... 1 −
365
365
365
1
2
24
log P = log 1 −
+ log 1 −
+ · · · + log 1 −
365
365
365
log(1 + x) ≈ x für kleines x
⇒ log P ≈ −
2.3
1 + 2 + · · · + 24
600
=−
365
730
Kombination
Beispiel.
(Lotto) 45 Zahlen, 6 ziehen
45
6 Möglichkeiten
n
n!
=
k!(n − k)!
k
Beispiel. (Kombination mit Wiederholung)
45 + 6 − 1
6
Beispiel. (Poker) 5 Karten aus 52
AAAA* Poker
Straight mit gleicher Farbe: Straight Flush
AAAKK Full House
5 mit gleicher Farbe: Flush
23456 Straight
AAA*x Trippel
AAKK 2 Paare
P {Full House} =
P {2 Paare} =
13 · 12
2
4 4
2 2
52
5
9 · 45
52
5
P {13 Sechser} =?
# Günstigen
# Alle
wenn alle Ausgänge gleich wahrscheinlich sind.
100 87
13 5
6100
4
2
Beispiel. 100 Würfel
P =
4
52
5
P {Straight} =
P =
4
2
13 · 12
· 44
Beispiel. Lotto 5 aus 90
5
3
85
2
90
5
P {3-er} =
Beispiel.
A = {1, 2, . . . , 100}
Wie viele Teilmengen?
100
100
100
100
+
+
+ ··· +
= 2100
0
1
2
100
Beispiel. BALLROOM
8!
2! · 2!
Multinomialkoeffizient
Beispiel. 10 Kugeln in 3 Urnen
unterscheidbar: 310
ununterscheidbar: (2 Trennwände aufstellen)
3
12
2
Mengenalgebra
A ∪ B, A ∩ B, AC , A \ B := A ∩ B C = {x : x ∈ A und x ∈
/ B}
A ◦ B := (A \ B) ∪ (B \ A) (symmetrische Differenz)
Beispiel. (Identitäten)
(X, ∪, ∩) bilden einen Verband.
(A ∩ B)C = AC ∪ B C , (A ∪ B)C = AC ∩ B C
DeMorgan
Definition. (Axiome)
0 ≤ P (A) ≤ 1
P (A ] B) = P (A) + P (B)
P (Ω) = 1
Satz 3.1. (Inklusions-Exklusions-Prinzip)
P (A + B) = P (A) + P (B) − P (A ∩ B)
P (A + B + C) = P (A) + P (B) + P (C) − P (AB) − P (BC) + P (ABC)
Seien A1 , A2 , . . . An Mengen. Es gilt
n
n
[ X
(−1)r−1
Ai =
i=1
r=1
r
n
\ X
\
X
r−1
Ai j =
(−1)
Ai r=1
1≤i1 <i2 <...ir ≤n j=1
I∈({1,2,...,n}
) i∈I
r
X
Beweis. Diskrete Mathematik
5
Beispiel. (Matching)
100 Männer, 100 Frauen
zufällige Zuordnung von Frauen zu Männern. Matching, falls Frau=Mann.
P {∃Matching} =?
A1 = Matching an der Stelle 1
A2 = Matching an der Stelle 2
..
.
A100 = Matching an der Stelle 100
P (A1 +· · ·+A100 ) = P (A1 )+· · ·+P (A100 −(P (A1 A2 )+. . . )+(Trippel)−(Quadrupel) · · ·−P (A1 A2 . . . A100 )
1
∀i = 1 . . . 100
100
X
Einzelne = 1
P
X
1
100
1
P
Paare =
=
99 · 100 2
2!
X
1
100
1
Trippel =
P
=
98 · 99 · 100 3
3!
P (Ai ) =
..
.
P =1−
1
1
1
1
+ + ··· +
−
2! 3!
99! 100!
P ≈1−
4
1
≈ 0.64
e
Bedingte Wahrscheinlichkeiten
Beispiel. Ziehe 2 Karten ohne Zurücklegen:
P {H} =
13
1
=
52
4
P {H2 |H1 } =
12
51
Definition. (Bedingte Wahrscheinlichkeit)
P (A|B) =
P (AB)
P (A ∩ B)
=
P (B)
P (B)
Intutitive Definition: Unter-Experimente wo A eintritt. Wie viele Male wird B eintreten?
6
Beispiel. n Experimente
nA mal A
nB mal B
nAB mal A und B
P (A) ≈
nA
n
P (B) ≈
nB
n
P (AB) ≈
P (A|B) ≈
nAB
n
nAB
nAB /n
P (AB)
=
≈
nB
nB /n
P (B)
Beispiel. Es gibt Karten RW, RR, WW.
Ziehe eine Karte und lege sie auf den Tisch (Seite zufällig).
Ich sehe rot. Wie hoch ist die Wahrscheinlichkeit, dass unten wieder rot ist.
P {RU |RO} =
P (RO und RU )
=
P (RO)
1
3
1
2
=
2
3
1000 RR gezogen → 1000x RO,RU
1000 WW gezogen → 1000x WO,WU
1000 RW gezogen → 500x RO,WU und 500x WO,RU
⇒
2
1000
=
1500
3
Beispiel.
1
1
, P (Mädchen) =
2
2
Aus einem Haus läuft ein Bub. Es gibt ein zweites Kind.
2 Kinder (Möglichkeiten): BB, BM, MB
P (Bub) =
1
3
Beispiel. Ziehe Karte und entferne ohne zu betrachten. Gesucht ist die Wahrscheinlichkeit, dass
bei 2. Karte Herz kommt.
P (zweiter Bub|1. Bub bekannt) =
P (H2 ) =
1
4
Satz 4.1. (Multiplikationssatz)
P (A ∩ B) = P (A)P (B|A)
P (A ∩ B ∩ C) = P (A)P (B|A)P (C|A, B)
Beweis.
P (A ∩ B) = P (A)
7
P (AB)
P (A)
Satz 4.2. (Satz von der totalen Wahrscheinlichkeit) Sei (Ω, A, P ) ein Wahrscheinlichkeitsraum,
und
S (Bj ) eine disjunkte Zerlegung von Ω mit P (Bj ) > 0 für alle j, d.h. Bj ∈ A disjunkt mit
j Bj = Ω. Dann gilt
X
P (A) =
P (A|Bj )P (Bj )
j
für A ∈ A.
Beweis.
P (A) = P (A|B1 )P (B1 ) + · · · + P (A|Bn )P (Bn )
P (A) = P (AB) + P (AB2 ) + · · · + P (A|Bn )
Beispiel. Wähle eine von 2 Urnen und ziehe eine Kugel (weiß oder schwarz).
Urne 1: 3 weiß, 2 schwarz
Urne 2: 1 weiß, 5 schwarz
P (weiß) =?
A weiß gezogen, B1 erste Urne, B2 zeite Urne
2 1 5 1
· + ·
5 2 6 2
Beispiel. Kartenpaket, 2 Karten ziehen, ohne zurücklegen. (zeite Karte Herz?)
B1 erste ist Herz
B2 zweite ist kein Herz
P (A) = P (A|B1 )P (B1 ) + P (A|B2 )P (B2 ) =
P (H2 ) = P (H2 |B1 )P (B1 ) + P (H2 |B2 )P (B2 ) =
12 1 13 3
51
1
+
=
=
51 4 51 4
51 · 4
4
Definition. (Polya Urnenmodell) Ziehe eine Kugel und lege sie mit einer Extra-Kugel gleicher
Farbe zurück. Beginne z.B. mit Urne mit 1 weißen und schwarzen Kugel.
vn =
#Weiße
#Alle
Gefragt ist häufig wohin vn konvergiert.
Bemerkung. Das Polya Urnenmodell ist ein Modell für eine Epidemie.
Beispiel. Es gilt das Polya Urnenmodell.
P (W SW ) = P (W )P (S|W )P (W |W S) =
112
1
=
234
12
P (W2 ) = P (W2 |W1 )P (W1 ) + P (W2 |S2 )P (S1 ) =
21 11
+
32 32
Beispiel. (Falsch positiv Paradox)
1% falsch positiv 1% falsch negativ
P (krank) = 0.5%
A = krank
B1 = +
B2 = -
P (A|+) =
P (A ∧ +)
P (A)P (+|A)
0.005 · 0.99
=
=
= 0.33
P (+)
P (+|A)P (A) + P (+|AC )P (AC )
0.99 · 0.005 + 0.01 · 0.995
8
100000 Personen, davon 500 AIDS, 99500 gesund
von 500 AIDS: 5 -, 495 +
von 99500 gesund: 995 +, . . . Beispiel. 3 Türen. Hinter 1 Tür ist Auto. Markiere zuerst 1 Tür. Öffne eine der beiden anderen
Türen, hinter der kein Auto steht. Soll man Tür wechseln?
M = mittlere Tür gewählt vom Freund
1 = selbst gewählte Tür 1
P (1|M ) =
P (1)P (M |1)
P (1M )
=
=
C
P (M )
P (M |1)P (1) + P (M |1 )P (1C ) + P (M |2)P (2) + P (M |3)P (3)
11
32
11
32
+0+
1 13
Beispiel. (Unendlich viele Möglichkeiten)
Münze mit beliebiger Kopfwahrscheinlichkeit. Werfe Münze n mal und erhalte jedes mal Kopf.
Wahrscheinlichkeit für erneut Kopf?
Betrachte n = 4.
P (KKKK) = P (KKKK|p = 0)P (p = 0) + P (KKKK|p = 0.1)P (0.1) + · · · =
Z 1
Z 1
1
=
P (KKKK|p) dp =
p4 dp =
5
0
0
P (KKKKK) =
⇒ P (K|KKKK) =
1
6
5
P (KKKKK)
=
P (KKKK)
6
Es gilt also allgemein:
P (Kn+1 |K1 K2 . . . Kn ) =
n+1
n+2
P (K|KKKKZZ) =?
Satz 4.3. (Formel von Bayes)
P (Bi |A) =
P (A|Bi )P (Bi )
P (A|Bj )P (Bj )
für A ∈ (A), P (A) > 0.
Beispiel. 2 Urnen
Urne 1: 2 S, 4 W
Urne 2: 4 S, 1 W
Wähle eine Urne und ziehe eine Kugel.
P (1|W ) =?
B1 Urne 1, B2 Urne 2, A = Weiß
P (1|W ) =
14
P (1W )
26
=
=
P (W )
P (W |1)P (1) + P (W |2)P (2)
Definition. A und B sind unabhängig, wenn P (A|B) = P (A).
9
14
26
41
62
+
11
52
=
1
3
Satz 4.4. Seien A und B unabhängig. Dann gelten:
P (AB)
= P (A)
P (B)
P (AB) = P (A)P (B)
Beispiel. Kartenpaket. Ziehe 1 Karte. Ich weiß dass Karte Herz war. Was ist die Wahrscheinlichkeit
dass die Karte ein König ist.
Unabhängigkeit?
1
52
1
1
1
=
P (A)P (B) = =
4
13
52
P (KH) =
⇒ P (K|H) =
1
13
TODO: insert
Beispiel. Wähle Sub-Intervall [x, y] aus [0, 1].
P {|x − y| <
1
} =?}
2
1. x,y gleichverteilt, x,y unabhängig.
Ω = {(x, y) : 0 ≤ x, y, ≤ 1}
2. y ist gleichverteilt auf dem längeren Interval nach dem ersten Brauch
Erster Punkt ist x mit x ≥ 21 . Zweiter Punkt ist xy mit 0 ≤ y ≤ 1. Damit x, y wieder
unabhängiges Problem.
1
Betrachte jetzt |x − xy| < 12 ⇒ y > 1 − 2x
, x ≥ 21
1
P = −
2
Z
1
1−
1/2
1
1
1
dx = − log(2) + ≈ 0.15
2x
2
2
Definition. (Zufallsvariable) Zufällige Zahl/Größe
Eine Zufallsvariable ist eine meßbare Funktion von Ω → R
Es gibt diskrete und stetige Zufallsvariablen.
X = Summe von Augenzahlen ist eine diskrete Zufallsvariable.
Punkte zwischen 0 und 1 wählen. D ist der Abstand dieser Punkt. Dann ist D eine stetige
Zufallsvariable.
Die Verteilung einer ZV ist die Tabelle mit Werten und entsprechenden Wahrscheinlichkeiten.
Beispiel. Zum beispiel im Wahrscheinlichkeitsraum 2x Würfeln wird jedes Experiment auf die
Summe der Augenzahlen abgebildet.
Wähle 2 Punkte auf Strecke.
Ω = {(x, y)0 ≤ x, y ≤ 1}
D = |x − y|
Diesmal sogar explizite Funktion.
10
Beispiel. Poker: 5 Karten aus 52.
Y = # Herzkarten, Y = 0, 1, . . . , 5
Ω=
H2,3,4,5,6 → 5
H2,3C9,10,J → 2
usw., dann hat man eine Funktion.
Bemerkung. Bei ununterscheidbaren Würfeln ist (1,2) und (2,1) nicht beobachtbar.
X = Zahl auf dem ersten Würfel
(1, 2) → 1 nicht unterscheidbar von (2, 1). Deswegen nicht meßbar.
Beispiel. Würfle 120 Mal.
X = # Sechser
X kann 0 bis 120 sein.
Wahrscheinlichkeit für 37 6er:
37 83
5
120
1
6
6
37
5
Klassische Verteilungen
1. Binomial
2. Poisson
3. Geometrisch
4. Negativ binomial
5. Hypergeometrisch
5.1
Diskrete Verteilungen
Definition. (Binomialverteilung) Anzahl der Erfolge in Bernoulli-Experiment B(n, p).
n k
B(n, k, p) = P (X = k) =
p (1 − p)n−k
k
Beispiel. Roulett: Setze immer auf 7
p=
1
37
n = 100 k = 10
P =
100
10
1
37
10 36
37
90
Beispiel. Erfolgswahrscheinlichkeit, dass ein Flugzeug abstürzt.
2
n = 100000, p = 100000
Wieder Binomialverteilung.
Beispiel. n = 120, p = 16
X = # Sechser
Wo nimmt die Wahrscheinlihckeit das Maximum an / Erwartungswert?
np = 20
11
Bemerkung.
n X
n
k=0
k
pk (1 − p)n−k = 1,
weil die Summe der Wahrscheinlichkeiten 1 sein muss.
Beispiel. Betrachte: n = 100000
2
p = 100000
k=5
5 99995
100000
2
99995
=
5
100000
100000
100000
10000 · 99999 . . . 999996
1000005
=
≈
5
5!
5!
P =
100000 25
5! 1000005
100000
2
⇒≈ 1 −
100000
n
xn
ex = lim 1 +
n→∞
n
⇒≈
⇒P ≈
25 −2
e
5!
⇒ P (k Katastrophen) ≈
2k −2
e
k!
Poisson-Verteilung
Definition. (Poisson-Verteilung) Für k = 0, 1, 2, . . . gilt
P (X = k) =
λk −k
e
k!
|{z}
eλ
λ entspricht dem Durchschnittswert.
Bemerkung. Es gilt
∞
X
λk
k=0
k!
e−λ = 1
Satz 5.1. (Poisson-Prinzip)
n k n−k
λk −λ
p q
≈
e
k
k!
wenn n groß und p klein. λ = np.
Beweis.
n groß, p klein, λ = np, p =
n k n−k
p q
k
λ
n
12
n−k
n−k
n(n − 1) . . . (n − k + 1) k
nk k
λ
(np)k
λ
n−k
p (1 − p)
≈
p 1−
=
1−
k!
k!
n
k!
k
|
{z
}
≈e−λ
1−
λ
n
n
→ e−λ
Beispiel. (Tippfehler)
1
P (Tippfehler) = 1000
, eine Seite = 3000 Zeichen ⇒ λ = 3
P (TF = 0) ≈
30 −3
e = e−3
0!
P (TF = 5) ≈
35 −3
e
5!
P (M = k) =
λk −λ
e
k!
Beispiel. (Matching)
M = # Matchings
1
⇒λ=1
n = 1000, p = 1000
1 −1
e = e−1
0!
1
P (M = 5) = e−1
5!
Problem: Die Ereignisse sind nicht unabhängig, aber Abhängigkeit nur sehr schwach.
P (M = 0) =
Beispiel. London im Jahr 1940. Verteilung der Bombeneinschläge
Größe von London: 144km2
Betrachte Zellen der Größe 1/4km2
1
⇒ λ = np = 0.93
n = 537 Bomben, p = 576
P (k Hits) =
0.93k −0.93
e
k!
P (k = 0) = e−0.93 = 0.39
k
0
229
1
211
2
93
3
35
≥5
1
4
7
Pemp =
299
= 0.39
537
Satz 5.2. (Gesetz der großen Zahlen, Bernoulli 1713) In n-maliger Wiederholung eines Experimentes bezeichnet Sn die Anzahl der Erfolge. Dann gilt für jedes > 0
lim P (n(p − ) < Sn < n(p + )) = 1
n→∞
Beweis. Äquivalent ist die Formulierung:
n k n−k
p q
→1
k
n(p−)≤k≤n(p+) |
{z
}
X
b(k,n,p)
13
∀ > 0, n → ∞ Berechne um Maximum zu finden:
k+1 n−k−1
n
q
b(k + 1)
n!k!(n − k)!
p
n−kp
k+1 p
=
=
=
n k n−k
b(k)
(k
+
1)!(n
−
k
−
1)!n!
q
k+1 q
p
q
k
Wo wächst obige Funktion?
(n − k)p > (k + 1)q
np − kp < kq + q
np − q > k(p + q)
k < np − q
Sie fällt bei:
k > np − q
Daher wächst die Verteilung bis np und fällt danach, für größe Werte von n. Definiere k0 = n(k +)
und zeige:
X
(k) ≈ 0
k≥k0
n−kp
b(k + 1)
=
b(k)
k+1 q
Wähle k = np + x. Da k ≥ n(p + ) = np + n ist folgendes interessant:
x ≥ n
n−kp
n − np − x p
nq − x p
npq − xp
x
b(k + 1)
=
=
=
≤
=1−
b(k)
k+1 q
np + x + 1 q
np + x + 1 q
npq
nq
x
n
b(k + 1)
≤1−
≤1−
=1−
b(k)
nq
nq
q
Also:
b(k + 1) ≤ (1 − )b(k)
q
Der Term vor b(k) ist kleiner als 1, daher eine geometrische Reihe aufsummiert:
X
b(k) ≤ b(k0 )
k≥k0
1
q
= b(k0 )
1 − (1 − q )
Wir müssen nur noch b(k0 ) abschätzen:
b(k0 )n ≤
k0
X
b(k) ≤ 1
np
Also:
b(k0 ) ≤
1
n
Daher folgt:
q
1 q
1
b(k0 ) ≤
≤ 2 →0
n n
Zusammenfassend wissen wir also:
P {n(p − ) < Sn < n(p + )} ≥ 1 −
14
2
n2
Weiter mit Poisson-Verteilung:
Beispiel.
1
p = 45 , n =
6
45
,λ = 1
6
P (X = k) ≈
1k −1
e
k!
P (X = 0) = e−1 =
1
= 0.3
e
13
≈ 5%
3!e
Beispiel. Autobahn. Anzahl von Autos um 1:34 zwischen Kilometer 100 und 101?
n = 7000000 Menschen in Österreich
Jede Person hat kleine Wahrscheinlichkeit p dort zu sein.
λ = np ≈ 54
P (X = 3) =
P (X = 300) =
54300 −54
e
≈0
300!
Definition. (Geometrische Verteilung)
Warten auf ersten Erfolg“
”
P (Ereignis) = p, q = 1 − p
X = Anzahl der Ausführungen bis zum ersten Eintritt des Ereignisses.
P (X = 1) = p, P (X = 2) = qp, P (X = 3)qqp, P (X = k)pq k−1 , k = 1, 2, . . .
∞
X
pq k−1 = p
k=1
1
1
=p =1
1−q
p
Beispiel.
1
P (X = k) =
6
k−1
5
6
Höchste Wahrscheinlichkeit bei X = 1.
Definition. (Negative binomiale Verteilung)
Warten auf den r-ten Erfolg“
”
X = Wartezeit
p = Wahrscheinlichkeit für Erfolg bei 1 Versuch
q =1−p
r+k−1 r k
P (X = r + k) =
p q
r−1
Beispiel. p = 61 , r = 3 Würfeln, warten auf den dritten Sechser:
3 14
16
1
5
P (X = 17) =
6
6
2
15
Beispiel. X = Länge vom Spiel
21. Erfolg im 40ten Spiel
r = 21, r + k = 40, k = 19
P (X = 40) =
Satz 5.3.
∞ X
r+k−1
k=0
Beweis.
39 21 19
p q
20
r−1
pr q k = 1
r+k−1 r k
−r r
p q =
p (−q)k
r−1
k
∞ ∞ X
X
−r r
−r
k
r
p (−q) = p
(−q)k = pr p−r = 1,
k
k
k=0
k=0
weil
∞ X
α k
(1 + x) =
x
k
α
k=0
(1 + x)−r =
∞
X
=
k=0
−r k
x
k
Setze x = −q, dann gilt
p−r = (1 − q)−r =
∞ X
−r
(−q)k
k
k=0
5.2
Stetige Verteilungen
Folgende Verteilungen sind stetige Verteilungen:
1. Gleichverteilung
2. Exponentialverteilung
3. Normalverteilung
Definition. (stetige Verteilung) Eine stetige Verteilung ist definiert durch eine Dichtefunktion
f (x) ≥ 0, sodass
Z ∞
f (x) dx = 1
−∞
Z
P (a ≤ X ≤ b) =
b
f (x) dx
a
Definition. (Gleichverteilung)
Die Gleichverteilung auf dem Intervall [a, b], U (a, b) ist definiert durch:
1
a<x<b
b−a
f (x) =
0
sonst
16
Beispiel. Gleichverteilung auf dem Intervall [2, 5]:
P (2 ≤ X ≤ 5) = 1
1
3
1
P (3 ≤ X ≤ 4) =
3
1
P (4 ≤ X ≤ 5) =
3
P (6 ≤ X ≤ 7) = 0
P (2 ≤ X ≤ 3) =
Beispiel.
1
x≥1
x2
0
sonst
Z ∞
1 ∞
1
dx
=
−
=1
x2
x 1
1
Z 4
1
3
P (0 < X < 4) =
dx =
2
4
1 x
f (x) =
Definition. (Exponentialverteilung)
Die Dichtefunktion der Exponentialverteilung lautet:
λe−λx x ≥ 0
f (x) =
0
sonst
Satz 5.4. Die Exponentialverteilung ist eine stetige Verteilung.
Beweis.
Z
∞
λe−λx dx = e−λx |∞
0 =0+1=1
0
Beispiel. λ =
1
70
Lebenslänge
1 −x/70
e
I(0,∞) (x)
70
Z ∞
1 −x/70 −x/70 ∞
P (X ≥ 80) =
f (x) dx =
e
= −e
|80 = e−8/7
70
80
f (x) =
P (X ≥ 90|X ≥ 70) =
Für λ =
1
70
P (X ≥ 90)
e−λ90
= −λ70 = e−20λ
P (X ≥ 70)
e
gilt:
P (X ≥ 90|X ≥ 70) = e−20/70 ≈ 75%
P (X ≥ 20) = e−λ20 = e−20/70 ≈ 75%
Definition. Die Verteilungsfunktion einer (beliebigen) Verteilung ist definiert als
F (x) = P (X ≤ x)
Definition ist also auch für nicht stetige Verteilungen gültig.
Für eine Verteilungsfunktion muss gelten:
17
Satz 5.5. Für eine Verteilungsfunktion gilt:
0 ≤ F (x) ≤ 1, lim F (x) = 1, lim F (x) = 0, F (x) ist rechtsstetig
x→∞
x→−∞
Beweis. Übung!
Satz 5.6. (Zusammenhang von Dichte- und Verteilungsfunktion)
Seien fX (x) die Dichtefunktion und FX (x) die VErteilungsfunktion der selben Verteilung.
Es gelten
0
fX (x) = FX
(x) in Stetigkeitspunkten
x
Z
FX (x) =
fX (t) dt
−∞
Beispiel.
f (x) =
0
1
x2
Z
x
F (x) =
1
x≤1
x≥1
1
1
dt = 1 −
2
t
x
−x
Beispiel. fX (x) = e , x ≥ 0
Y = X2
Gesucht ist nun fY (x).
Berechne zunächst
FY (t) = P (Y ≤ t) = P (X 2 ≤ t) = P (X ≤
√
√
t) = FX ( t)
√
√ 1 1
√
1
0
⇒ fY (t) = FX
( t) = fX ( t) t− 2 = e− t √ , t > 0
2
2 t
Beispiel.
x2
1
X = N (0, 1), fX (x) = √ e− 2
2π
Y = X 3 , fY (t) =?
FY (t) = P (Y ≤ t) = P (X 3 ≤ t) = P (X ≤ t1/3 ) = FX (t1/3 )
1
1
t2/3 1 −2/3
fY (t) = fX (t1/3 ) t−2/3 = √ exp(−
) t
∀t
3
2 3
2π
Satz 5.7. Gegeben seien X, Y = g(X), fX (x).
Gesucht ist fY
Dann gilt
fY (t) = fX (g −1 (t))(g −1 (t))
wenn g −1 existiert, also g monoton ist.
Beweis.
FY (t) = P (Y ≤ t) = P (g(X) ≤ t) = P (X ≤ g −1 (t)) = FX (g −1 (t))
18
Beispiel. X = N (0, 1), Y = X 2
√
√
√
√
FY (t) = P (X 2 ≤ t) = P (− t ≤ X ≤ t) = FX ( t) − FX (− t)
1
fY (t) = e−t/2 √ , t > 0
t
1
⇒ fY (t) = e−t/2 √ I(0,∞) (t)
t
5.3
Zweidimensionale Verteilungen
Beispiel. (X, Y ) mit X = # Zigaretten/Tag, Y = Lebenslänge
Beispiel. Urne: 2W, 3B, 4R
Ziehe 3 Kugeln (ohne zurücklegen)
X = #W, Y = #R
Y/X
0
1
2
3
(33) (21)(32)
0
(93)
(93)
(22)(41)
1
0
(93)
2
0
0
3
0
0
0
Y/X
0
1
2
3
0.1 0.2
0.1 0.4
8
0.3 0.15 0.15 0.6
0.4 0.35 0.25
X
0
1
2
0.4 0.35 0.25
Y
3
8
0.4 0.6
X, Y sind Randverteilungen
Definition. (Zweidimensionale Dichtefunktion)
f (x, y)
ZZ
P ((X, y) ∈ A) =
f (x, y) dx dy
A
ZZ
∞
f (x, y) dx dy = 1
−∞
Definition.
P (X ≥ Y ) = P ((X, Y ) ∈ A)
für
A = {(X, y) : y ≥ X}
Beispiel.
f (x, y) = e−(x+y) , x, y ≥ 0
Z
0
∞
Z
∞
e−(x+y) dx dy = 1
0
ZZ
e−(x+y) dx dy =
P (Y ≥ X) =
A
19
1
2
Beispiel. Sei K der Einheitskreis.
1
π
f (x, y) =
ZZ
(x, y) ∈ K
sonst
0
∞
f (x, y) dx dy = 1
−∞
Praktische Bedeutung: Zielen auf Zielscheibe. Jeder Teil der Zielscheibe wird mit gleicher Wahrscheinlichkeit getroffen.
Gleichverteilung auf K.
Sei A = {(x, y) ∈ K : x ≥ 21 }
ZZ
ZZ
2
1
f (x, y) dx dy =
dx dy = ≈ 0.2
π
A
A π
Beispiel.
e−y 0 < x < y < ∞
0
sonst
ZZ
P (X ≤ 1) =
e−y dx dy =
f (x, y) =
A
Beispiel.
ZZ
P {(X, Y ) ∈ A} =
f (x, y)dxdy
A
f (x, y) = e
−(x+y)
x, y ≥ 0
P (X ≥ 2Y ) = P {(X, Y ) ∈ A}
A = {(X, Y ) : X ≥ 2Y, y ≤
X
}
2
X
ZZ
e−(x+y) dxdy =
Z2 Z∞
. . . dydx
0
A
0
Beispiel. Seien X,Y wie folgt verteilt:
Randverteilung von Y (Summe):
Y \X
4
6
0
0.1
0.5
4
0.4
6
0.6
1
0.2
0.05
2
0.1
0.05
Randverteilung für stetige Verteilungen:
Z∞
fX (x) =
e−(x+y) dx = . . .
−∞
Z∞
fY (x) =
e−(x+y) dy = . . .
−∞
Beachte:
fX,Y (x, y) = fX (x)fY (y)
20
Definition. (Unabhängigkeit der Zufallsvariablen) Sei P (AB) = P (A)P (B). Dann sind X und Y
unabhängig, wenn
P (X ∈ A, Y ∈ B) = P (X ∈ A)P (Y ∈ B)
Beispiel. Sei
f (x, y) =
e−y
0
0<x<y<∞
sonst
Bestimme Randverteilung (Skizze hilft!):
Z∞
fX (x) =
e−y dy = e−x
x
Zy
fY (x) =
e−y dx = e−y y
0
Bemerkung. Beispiel darüber ist gutes Modell für Temperaturen : Sei X die Temperatur in Graz
und Y die Temperatur in Rom. X ≤ Y
Satz 5.8. (Bedingte Dichtefunktion) Sei fX,Y (x, y) eine Dichtefunktion. Man beobachte eine Zufallsvariable y. Was ist fX (x|Y = y). Daher die Dichtefunktion von X gegeben y.
fX (x|y ≤ Y ≤ y + ∆y), ∆y → 0
fX (x|Y = y) =
21
fX,Y (x, y)
fY (y)
Herunterladen