Vorlesung 5, 25.11.2011 - staff.uni

Werbung
Biostatistik, Winter 2011/12
Wahrscheinlichkeitstheorie: Grundbegriffe
Prof. Dr. Achim Klenke
http://www.aklenke.de
5. Vorlesung: 25.11.2011
1/33
Inhalt
1
Zufallsvariablen
2
Ereignisse
3
Wahrscheinlichkeit
Definition
Unabhängigkeit
2/33
Zufallsvariablen
Definition
Eine Zufallsvariable
Eine Zufallsvariable X mit Wertebereich W beschreibt die Werte
eines Zufallsexperiments. Beispiele:
Werfen eines Würfels. X = Augenzahl. Wertebereich
W = {1, . . . , 6}.
Temperatur um 1200 Uhr. X = Temperatur in Kelvin.
W = [0, ∞).
Position einer Flaschenpost im Atlantik. X = ebene
Koordinaten, W = R2 .
Waldsterben: X = Gesundheitszustand eines zufällig
gewählten Baumes, W = { gesund, krank, tot },
Bakterienwachstum, X = Anzahl der Bakterien nach einem
Tag, W = N0 = {0, 1, 2, . . .}.
In den meisten Fällen ist W = R, W = N, oder Teilmengen
davon.
3/33
Zufallsvariablen
Definition
Zwei Zufallsvariablen
Zwei Zufallsvariablen X und Y können verschiedene Aspekte
eines Experiments beschreiben.
Beispiel
1
2
3
X = Temperatur um 1200 Uhr
Y = Niederschlagsmenge (in mm) am selben Tag.
Experiment: zwei Würfel werfen.
X = Augenzahl erster Würfel.
Y = Augenzahl zweiter Würfel.
Experiment: zwei Würfel werfen.
X = Augenzahl erster Würfel.
Z = Augensumme beider Würfel.
In den Fällen (1) und (3) sind X und Y abhängig, im Fall (2) sind
X und Y unabhängig.
4/33
Zufallsvariablen
Definition
Viele Zufallsvariablen
Eine Folge X1 , X2 , X3 , . . . von Zufallsvariablen kann eine Folge
von Zufallsexperimenten beschreiben.
Beispiel
1
2
Ein Würfel wird nacheinander immer wieder geworfen.
X1 = Ergebnis erster Wurf
X2 = Ergebnis zweiter Wurf
usf.
An dreißig Tagen wird die Mittagstemperatur gemessen.
Xk = Temperatur am Tag k (für k = 1, . . . , 30).
Im ersten Fall sind die Zufallsvariablen unabhängig; im zweiten
nicht.
5/33
Ereignisse
Definition
Ereignisse: Definition
Definition
Jede Aussage, deren Wahrheitsgehalt durch die Werte einer
oder mehrerer Zufallsvariablen bestimmt werden kann, heißt
Ereignis.
Wir sagen, dass ein Ereignis eintritt, wenn die entsprechende
Aussage bei den tatsächlich beobachteten Werten der
Zufallsvariablen wahr ist.
6/33
Ereignisse
Beispiele
Beispiel 1
Würfelwurf: X =Augenzahl.
A = Augenzahl höchstens drei“.
”
Formale Schreibweise
A = {X ≤ 3}.
7/33
Ereignisse
Beispiele
Beispiel 2
Dreifacher Würfelwurf: X1 , X2 , X3 Ergebnisse der drei Würfe.
A := Augensumme ist höchstens Zehn“,
”
B := Augensumme ist gerade“,
”
C := Augenzahl des zweiten Wurfs ist Vier“,
”
D := Augenzahl des zweiten Wurfs ist gerade“.
”
Dann ist
A = {X1 + X2 + X3 ≤ 10}
B = {X1 + X2 + X3 durch 2 teilbar}
= X1 + X2 + X3 ∈ {4, 6, 8, 10, 12, 14, 16, 18}
C = {X2 = 4}
D = X2 ∈ {2, 4, 6} .
8/33
Ereignisse
Beispiele
Beispiel 3
X = Mittagstemperatur,
A = Temperatur ist zwischen 290K und 295K“.
”
Dann ist
A = {290 ≤ X ≤ 295} = {X ∈ [290, 295]}.
9/33
Ereignisse
Logische Verknüpfungen
Logische Verknüpfungen
Definition
∅
Ereignis, das nie eintritt,
Ω
Ereignis, das immer eintritt,
A∩B
A und B treten ein,
A∪B
A oder B tritt ein (oder beide)
A\B
A tritt ein, aber nicht B
Ac = Ω \ A
A tritt nicht ein (Gegenereignis zu A)
A⊂B
heißt, dass aus A stets B folgt.
10/33
Ereignisse
Logische Verknüpfungen
Logische Verknüpfungen
Beispiel 2 (Fortsetzung)
A = {X1 + X2 + X3 ≤ 10}
B = X1 + X2 + X3 ∈ {4, 6, 8, 10, 12, 14, 16, 18}
C = {X2 = 4}
D = X2 ∈ {2, 4, 6} .
Dann ist
A ∩ B = {X1 + X2 + X3 ∈ {4, 6, 8, 10}},
A∪B = {X1 +X2 +X3 ∈ {3, 4, 5, 6, 7, 8, 9, 10, 12, 14, 16, 18}},
A ∩ C = {X2 = 4 und (X1 + X3 ) ≤ 6},
B c = X1 + X2 + X3 ∈ {3, 5, 7, 9, 11, 13, 15, 17} ,
C \ B = X2 = 4 und X1 + X3 ∈ {3, 5, 7, 9, 11} ,
Es gilt C ⊂ D.
11/33
Ereignisse
Logische Verknüpfungen
Logische Verknüpfungen
Mehrere Ereignisse
Seien A1 , A2 , . . . , An Ereignisse. Dann ist
n
[
Ai = A1 ∪ A2 ∪ . . . ∪ An
i=1
= wenigstens eines der A1 , . . . , An tritt ein
n
\
Ai = A1 ∩ A2 ∩ . . . ∩ An
i=1
= jedes der A1 , . . . , An tritt ein
Auch für n = ∞ möglich.
12/33
Ereignisse
Logische Verknüpfungen
Logische Verknüpfungen
de Morgan’sche Regeln
Gegenereignis zu A ∪ B: Weder A noch B tritt ein. Anders
gesagt: Ac und B c treten ein. Also
(A ∪ B)c = Ac ∩ B c .
Analog
(A ∩ B)c = Ac ∪ B c .
Beispiel: Würfelwurf X
A = {X ≤ 3}, B = {X ∈ {2, 4, 6}}.
A ∪ B = {X ∈ {1, 2, 3, 4, 6}} und (A ∪ B)c = {X = 5}.
Andererseits: Ac = {X ≥ 4}, B c = {X ∈ {1, 3, 5}}. Also
Ac ∩ B c = {X = 5}.
13/33
Ereignisse
de Morgan’sche Regeln
Logische Verknüpfungen
de Morgan’sche Regeln
Satz (de Morgan)
Seien A1 , A2 , . . . , An Ereignisse. Dann gilt
!c
n
n
[
\
Ai
=
Aci
i=1
i=1
und
n
\
i=1
!c
Ai
=
n
[
Aci
i=1
Auch für n = ∞ gültig.
14/33
Ereignisse
de Morgan’sche Regeln
Logische Verknüpfungen
de Morgan’sche Regeln
Beispiel
Seien X1 , . . . , X10 Ergebnisse von zehn Würfelwürfen.
Ai := {Xi = 6}
Aci
Dann ist
für i = 1, . . . , 10.
= {Xi ≤ 5} und
10
[
Ai = wenigstens eine Sechs“ in den zehn Würfen
”
!c
i=1
10
[
Ai
i=1
= keine Sechs“ in den zehn Würfen
”
= jeder Wurf höchstens Fünf“ =
”
10
\
Aci .
i=1
15/33
Wahrscheinlichkeit
Definition
Definition der Wahrscheinlichkeit
Definition
Jedem Ereignis A wird eine Zahl P[A] ∈ [0, 1] zugeordnet, die
misst, wie wahrscheinlich“ das Eintreten von A ist.
”
Wir sagen: P[A] ist die Wahrscheinlichkeit (dafür), dass A
eintritt.
Beispiel
Sei X das Ergebnis eines Würfelwurfes und A = {X = 5}.
Symmetrie liefert:
1
P[A] = .
6
16/33
Wahrscheinlichkeit
Definition
Deutung der Wahrscheinlichkeit
Beispiel
Seien X1 , X2 , . . . die Ergebnisse eines wiederholten
Würfelwurfes.
Absolute Häufigkeit
Hn := Anzahl der Würfe i ≤ n mit Xi = 5.
Relative Häufigkeit
hn = Hn /n.
Wir erwarten
1
= P[A] für großes n.
6
=⇒ Interpretation der Wahrscheinlichkeit für wiederholbare
Experimente.
hn ≈
Wahrscheinlichkeit
17/33
Definition
Rechenregeln für Wahrscheinlichkeiten
Satz
Es gelten:
1
P[∅] = 0, P[Ω] = 1,
2
P[A ∪ B] = P[A] + P[B], falls A ∩ B = ∅,
3
P[A ∪ B] = P[A] + P[B] − P[A ∩ B] im allgemeinen Fall,
4
P[Ac ] = 1 − P[A].
18/33
Wahrscheinlichkeit
Definition
Rechenregeln für Wahrscheinlichkeiten
Beispiel: Würfelwurf X
Sei A = {X ≤ 2}, B = {X ≥ 5}, C = {X ∈ {2, 4, 6}}. Dann gilt
{X = 7} = ∅, also P[X = 7] = P[∅] = 0.
{X ≤ 6} = Ω, also P[X ≤ 6] = P[Ω] = 1.
A ∪ B = {X ∈ {1, 2, 5, 6}} und A ∩ B = ∅, also
2 2
4
= P[A ∪ B] = P[A] + P[B] = + .
6
6 6
A ∪ C = {X ∈ {1, 2, 4, 6}} und A ∩ C = {X = 2}. Also
4
2 3 1
= P[A ∪ C] = P[A] + P[C] − P[A ∩ C] = + − .
6
6 6 6
19/33
Wahrscheinlichkeit
Definition
Verteilung von Zufallsvariablen
Definition (Verteilung einer Zufallsvariable)
Ist X eine Zufallsvariable mit Werten in W, so heißt die Familie
PX := (P[X ∈ A], A ⊂ W) aller Wahrscheinlichkeiten für Werte,
die X annehmen kann, die Verteilung von X .
In der allgemeinen mathematischen Theorie gibt es gibt hier Fußangeln, die für Sie aber keine Bedeutung haben.
Beispiel: Gleichverteilung
Ist W eine endliche Menge, so gibt es oft (aber nicht immer)
Symmetriegründe, so dass für A ⊂ W gilt:
P[X ∈ A] =
#A
.
#W
X heißt dann gleichverteilt oder uniform verteilt auf W .
20/33
Wahrscheinlichkeit
Definition
Dichte und Gewichtsfunktion
Definition
Ist W = N0 , so ist die Verteilung von X durch die
Wahrscheinlichkeiten
P[X = k],
k ∈ N0
festgelegt. Die Zuordnung k 7→ P[X = k] heißt
Gewichtsfunktion.
21/33
Wahrscheinlichkeit
Definition
Dichte und Gewichtsfunktion
Definition
Ist W = R oder W = [0, ∞) und gibt es eine Funktion fX mit
Z
P[X ∈ [a, b]] =
b
fX (t) dt
für alle a < b,
a
so heißt fX Dichte von X . Die Verteilung von X ist durch die
Dichte eindeutig festgelegt.
22/33
Wahrscheinlichkeit
Definition
Verteilung einer Zufallsvariable
Beispiel: Zweifacher Würfelwurf X1 , X2
Sei X = (X1 , X2 ) gemeinsames Ergebnis (mit Reihenfolge)
zweier Würfelwürfe. Wertebereich von X :
W = {(1, 1), (1, 2), . . . , (6, 6)}.
Klar: #W = 36 und X ist uniform verteilt auf W.
Sei A = Augensumme ist Fünf“. Dann ist
”
4
1
P[A] = P X ∈ {(1, 4), (2, 3), (3, 2), (4, 1)} =
= .
36
9
Sei Y = X1 + X2 Augensumme. Wertebereich WY = {2, . . . , 12}.
Aber Y ist nicht gleichverteilt!
23/33
Wahrscheinlichkeit
Definition
Verteilung einer Zufallsvariable
Beispiel: Zweifacher Würfelwurf X1 , X2 (Fortsetzung)
Sei Y = X1 + X2 Augensumme. Y ist nicht gleichverteilt:
P[Y = 2] = P[X = (1, 1)] =
1
36
P[Y = 3] = P[X ∈ {(1, 2), (2, 1)}] =
2
36
P[Y = 4] = P[X ∈ {(1, 3), (2, 2), (3, 1)}] =
3
36
..
.
6
36
5
P[Y = 8] =
36
..
.
P[Y = 7] =
24/33
Wahrscheinlichkeit
Unabhängigkeit
Unabhängigkeit (intuitiv)
Sind X1 , X2 , . . . die Ergebnisse von unabhängigen
Zufallsexperimenten (also solchen, deren Ausgänge die
anderen Zufallsexperimente nicht beeinflussen), so gilt
Für zwei Zufallsvariablen:
P[X1 ∈ A1 und X2 ∈ A2 ] = P[X1 ∈ A1 ] · P[X2 ∈ A2 ] für je
zwei mögliche Wertemengen A1 und A2 .
Für drei Zufallsvariablen: P[X1 ∈ A1 und X2 ∈ A2 und X3 ∈
A3 ] = P[X1 ∈ A1 ] · P[X2 ∈ A2 ] · P[X3 ∈ A3 ] für je drei
mögliche Wertemengen A1 , A2 und A3 .
Für n Zufallsvariablen und jede Wahl A1 , . . . , An ⊂ W:
"n
#
n
\
Y
P
{Xi ∈ Ai } =
P[Xi ∈ Ai ].
i=1
i=1
25/33
Wahrscheinlichkeit
Unabhängigkeit
Unabhängigkeit
Definition (Unabhängige Zufallsvariablen)
Die Zufallsvariablen X1 , . . . , Xn heißen unabhängig, wenn für
jedes k ≤ n und jede Wahl 1 ≤ i1 < i2 < . . . < ik ≤ n und jede
Wahl von Wertemengen Ai1 , . . . , Aik die Produktformel gilt:
" k
#
k
\
Y
P
{Xi` ∈ Ai` } =
P[Xi` ∈ Ai` ].
(1)
`=1
`=1
In dieser Definition ist auch n = ∞ möglich, also unendlich viele
Zufallsvariablen.
26/33
Wahrscheinlichkeit
Unabhängigkeit
Unabhängigkeit
Definition (Unabhängige Ereignisse)
Die Ereignisse B1 , . . . , Bn heißen unabhängig, wenn für jedes
k ≤ n und jede Wahl 1 ≤ i1 < i2 < . . . < ik ≤ n die Produktformel
gilt:
" k
#
k
\
Y
P
Bi` =
P[Bi` ].
(2)
`=1
`=1
Speziell sind zwei Ereignisse A und B genau dann unabhängig,
wenn P[A ∩ B] = P[A] · P[B].
In dieser Definition ist auch n = ∞ möglich, also unendlich viele
Ereignisse.
27/33
Wahrscheinlichkeit
Unabhängigkeit
Warten auf ersten Erfolg
X1 , X2 , . . . unabhängige Zufallsvariablen, die uniform auf
W = {1, . . . , 6} verteilt sind (unendliche Wiederholung eines
fairen Würfelwurfes). Wie lange muss man warten, bis die erste
Sechs“ fällt?
”
Sei T = Wartezeit auf die erste Sechs“. Wir zählen den ersten
”
Wurf noch nicht als Warten und setzen
T = 0, falls X1 = 6,
T = 1, falls X1 6= 6 und X2 = 6,
T = 2, falls X1 6= 6, X2 6= 6 und X3 = 6,
T = 3, falls X1 6= 6, X2 6= 6, X3 6= 6 und X4 = 6,
..
.
28/33
Wahrscheinlichkeit
Unabhängigkeit
Warten auf ersten Erfolg (2)
1
,
6
P[T = 1] = P[X1 6= 6 und X2 = 6]
= P[{X1 6= 6} ∩ {X2 = 6}]
P[T = 0] = P[X1 = 6] =
5 1
5
· =
,
6 6
36
P[T = 2] = P[{X1 6= 6} ∩ {X2 6= 6} ∩ {X3 = 6}]
= P[X1 6= 6] · P[X2 6= 6] · P[X3 = 6]
5 2 1
25
=
=
.
6 6
216
= P[X1 6= 6] · P[X2 = 6] =
29/33
Wahrscheinlichkeit
Unabhängigkeit
Warten auf ersten Erfolg (3)
P[T = n] = P[Xi 6= 6 für alle i ≤ n und Xn+1 = 6]
!
n
Y
=
P[Xi 6= 6] · P[Xn+1 = 6]
i=1
n
1
5
=
.
6
6
30/33
Wahrscheinlichkeit
Unabhängigkeit
Warten auf ersten Erfolg
Allgemeiner Fall
Statt Würfeln jetzt Münzwurf mit Wahrscheinlichkeit p für Kopf.
T = Anzahl der Würfe, bevor Kopf kommt. Wertebereich
W = {0, 1, 2, . . .}.
P[T = n] = (1 − p)n p.
Definition
Diese Verteilung heißt geometrische Verteilung mit Parameter p.
31/33
Wahrscheinlichkeit
Unabhängigkeit
Frage aus dem Publikum
Wie oft muss man würfeln, um mit Wahrscheinlichkeit 99% mindestens
eine Sechs zu würfeln?
Lösung 1: Wahrscheinlichkeit für mindestens eine Sechs in n Würfen
"n
#
" n
!c #
[
[
P
{Xi = 6} = 1 − P
{Xi = 6}
i=1
i=1
"
=1−P
n
\
#
{Xi = 6}
c
"i=1
#
n
n
\
5
=1−P
{Xi ≤ 5} = 1 −
.
6
i=1
Dabei haben wir in der ersten Zeile Rechenregel 4 ausgenutzt, in der
zweiten Zeile die de Morgan’sche Regel. Es gilt also 0.99 ≤ 1 − (5/6)n .
Umstellen ergibt n ≥ log(0.01)/ log(5/6) ≈ 25.26, also muss n = 26
gewählt werden.
32/33
Wahrscheinlichkeit
Unabhängigkeit
Frage aus dem Publikum /2
Wie oft muss man würfeln, um mit Wahrscheinlichkeit 99% mindestens
eine Sechs zu würfeln?
Lösung 2: Die Wartezeit T auf die erste Sechs ist geometrisch verteilt,
also
n
1 5
.
P[T = n] =
6 6
Gesucht ist n, so dass P[T ≥ n] ≤ 0.01.
Aufsummieren ergibt
P[T ≥ n] =
k
∞
X
1 5
k=n
6
6
n X
∞ k
5
5
6
6
k=0
n
n
1
1 5
5
.
=
=
6 6
1 − 5/6
6
=
1
6
Dabei haben wir in der zweiten Zeile die Formel für die geometrische
Reihe (Vorlesung 1, letzte Folie) benutzt. Wir haben also wieder
n
5
0.01 ≥
,
6
und wie in Lösung 1 erhalten wir n ≥ 26.
33/33
Herunterladen