4. Wahrscheinlichkeitsrechnung 4.1. Ereignisse und

Werbung
4. Wahrscheinlichkeitsrechnung
4.1. Ereignisse und Wahrscheinlichkeiten
• Zufälliger Versuch:
Vorgang, der (zumindest gedanklich) beliebig oft wiederholbar ist und dessen Ausgang innerhalb einer Menge
möglicher Ausgänge ungewiss (zufällig) ist.
Ω ...
Menge der möglichen (elementaren, einander
ausschließenden) Versuchsausgänge ω ∈ Ω
A . . . Ereignisfeld, enthält Teilmengen von Ω,
die Ereignisse A ∈ A
• Ein Ereignis A tritt ein, wenn der Versuchsausgang ω, den
der Versuch liefert, ein Element der Menge A ist, d.h. wenn
ω ∈ A.
'
$
'
v
$
Ω
A
ω
&
%
&
%
1
• Beispiele
1) Würfeln mit idealem Würfel
Ω = {1, 2, 3, 4, 5, 6}
A = {2, 4, 6} . . .
Ereignis, dass eine gerade Zahl
gewürfelt wird
B = {3, 4, 5, 6} . . . Ereignis, dass Zahl > 2 gewürfelt
wird
C = {6} . . .
Ereignis, dass ”6” gewürfelt wird
A ∩ B = {4, 6} . . . ” A und B ”, Ereignis, dass eine
gerade Zahl gewürfelt wird, die
größer als 2 ist
2) Würfeln mit 2 unterscheidbaren Würfeln
Ω = { (1, 1), (1, 2), . . . , (1, 6), (2, 1), . . . , (6, 6) }
ω = ( Ergebnis Würfel 1, Ergebnis Würfel 2 ) ∈ Ω
2
3) Auswahl einer Versuchsperson, die Antwort auf eine
Frage auf einer Ratingskala (10 cm lang) markiert :
+————————X——————————————+
0
10
z.B.: sehr unsympathisch —————– sehr sympathisch
Ω = [ 0, 10 ]
(überabzählbar viele mögliche Antworten !)
4) Zahlenlotto 6 aus 49
Ω = Menge der möglichen Tipps
(Auswahl von 6 aus 49 Zahlen)
µ ¶
49
also
= 13 983 816 verschiedene Tippscheine möglich.
6
5) Auswahl von 100 Personen aus einer bestimmten
Population
Ω = {(ω1, ω2, . . . , ω100), ωi ist ein Bürger aus der Population}
3
”Rechnen mit Ereignissen’’
A ∩ B ist ein Ereignis. Es tritt ein, wenn A und B gleich'
$
zeitig eintreten.
'
$
p pp pp pp pp pp pp pp
pp ppp ppp ppp ppp ppp ppp ppp ppp ppp
ppp ppp ppp ppp ppp ppp ppp ppp ppp ppp
pp pp pp pp pp pp pp pp pp pp
pp pp pp pp pp pp pp pp pp pp
pp pp pp pp pp pp pp pp pp p
pp pp pp pp pp pp pp pp p
&p p p p p p p %
A
B
&
%
A∪B ist das Ereignis, das eintritt, wenn A oder B eintritt
'
pppppppppppp $
(oder beide zugleich).
p pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp
p pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp
pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp
pp pp pp pp pp pp pp pp pp pp'
pppppppppp
pp pp pp pp pp pp pp pp pp pp ppp ppp ppp ppp ppp ppp ppp ppp ppp ppp ppp ppp ppp ppp ppp ppp ppp pp p $
ppp ppp ppp ppp ppp ppp ppp ppp ppp ppp ppp ppp ppp ppp ppp ppp ppp ppp ppp ppp ppp ppp ppp ppp ppp ppp ppp ppp ppp pp
pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp
pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp
pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp
p pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp
p pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp
p p p p p p p pp pp pp pp pp pp pp pp pp pp%
pppppppppp
&
pp pp pp pp pp pp pp pp pp pp ppp ppp ppp ppp ppp ppp ppp ppp ppp ppp
p pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp
p pp pp pp pp pp pp pp pp pp pp pp pp pp pp p
pppppppppppp %
&
A
B
A \ B ist das Ereignis, das eintritt, wenn A eintritt aber
'
pppppppppppp $
p pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp
B nicht.
pp ppp ppp ppp ppp ppp ppp ppp ppp ppp ppp ppp ppp ppp ppp ppp ppp ppp ppp p
pp pp pp pp pp pp pp pp pp pp'
pppppppppp
$
pp pp pp pp pp pp pp pp pp pp ppp ppp pp p p p p p p p
pp pp pp pp pp pp pp pp pp pp pp
pp pp pp pp A
pp pp pp pp pp pp
pp pp pp pp pp pp pp pp pp pp
pp pp pp pp pp pp pp pp pp pp
pp pp pp pp pp pp pp pp pp pp
p pp pp pp pp pp pp pp pp pp
p pp pp pp pp pp pp pp pp
ppppppp
&
B
%
&
%
Ā ist das Ereignis, das eintritt, wenn A nicht eintritt, Ā
ist das komplementäre Ereignis zu A.
'
p p pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp p $
pp ppp ppp ppp '
p p p p p p p p p p p p p p p p p p p p pp pp pp pp pp pp pp pp pp pp pp pp pp p
pppppppppppppp
p p p p p pp pp pp p p p p p p p p p p p p p p p pp ppp $
p ppp ppp ppp ppp ppp ppp ppp ppp ppp ppp ppp ppp ppp ppp ppp
pp ppp ppp ppp ppp ppp ppp p
pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp
pp pp pp pp pp pp pp
ppp ppp ppp ppp ppp ppp ppp ppp ppp ppp ppp ppp ppp ppp
ppp ppp ppp ppp ppp ppp ppp
pp pp pp pp pp pp pp pp pp pp pp pp pp pp
pp pp pp pp pp pp pp
pp pp pp pp pp pp pp pp pp pp pp pp pp pp
pp pp pp pp pp pp pp
pp pp pp pp pp pp pp pp pp pp pp pp pp pp
pp pp pp pp pp pp pp
pp pp pp pp pp pp pp pp pp pp pp pp pp pp
pp pp pp pp pp pp pp
pppppppppppppp
pp pp pp pp pp pp pp
pp ppp ppp ppp ppp ppp ppp ppp ppp ppp ppp ppp ppp ppp ppp
pp pp pp pp pp pp pp
p pp pp pp pp pp pp pp pp pp pp pp pp pp pp
p pp pp pp pp pp pp p
p
p
p p pp pp pp pp pp pp pp pp pp pp pp pp pp pp
pp pp pp pp pp &
ppp
p pp pp pp ppp ppp ppp ppp pp pp pp pp pp pp pp pp pp pp pp pp pp ppp ppp ppp %
pppppppppppppp
p p p p p p p p p p p p p p p p p p p p p p pp pp pp pp pp pp pp pp pp pp pp p p %
&
Ω
A
Ā
Spezielle Ereignisse:
∅ . . . unmögliches Ereignis (leere Menge)
Ω . . . sicheres Ereignis (Ω ⊂ Ω)
4
Beziehungen zwischen Ereignissen
A ⊂ B . . . A zieht B nach sich
'
'
$
$
Ω
'
$
B
A
&
%
&
&
%
%
Ist A eingetreten, d.h. der Versuchsausgang ist ein ω ∈ A,
so gilt ω ∈ B, d.h. B ist ebenfalls eingetreten.
Gilt A ∩ B = ∅, so heißen A und B unvereinbar, sie
können niemals gemeinsam eintreten.
'
$
'
A
&
Ω
$
'$
%
B
&%
%
&
Das Ereignisfeld A wird nun aus genügend vielen
Ereignissen gebildet, so dass alle obigen Operationen
zwischen diesen Ereignissen ausführbar sind und außerdem
Ω ∈ A gilt.
(Enthält Ω unendlich viele Elemente (vgl. Bsp. 3) so müssen
auch Grenzwerte von Operationen der Form A1 ∪ A2 ∪ . . . in
A sein. A ist dann σ-Algebra.).
Den Operationen zwischen Ereignissen entsprechen Operationen zwischen Mengen (Durchschnitt, Vereinigung, . . . ).
5
Wahrscheinlichkeiten
Vorbetrachtung:
n-malige Durchführung eines zufälligen Versuches und zählen,
wie häufig ein uns interessierendes Ereignis A eingetreten ist:
• absolute Häufigkeit:
Hn(A)
• relative Häufigkeit:
hn(A) =
1
Hn(A)
n
Erfahrung: Für große n stabilisieren sich die relativen Häufigkeiten
6
Eigenschaften der relativen Häufigkeit:
h1)
h2)
0 ≤ hn(A) ≤ 1
Ω tritt immer ein: Hn(Ω) = n, ∅ tritt nie ein:
hn(Ω) = 1,
h3)
hn(∅) = 0 .
Gilt A ∩ B = ∅, (A und B disjunkt ) dann treten
A und B niemals gleichzeitig ein, und es gilt
Hn(A ∪ B) = Hn(A) + Hn(B),
(∗)
und somit:
hn(A ∪ B) = hn(A) + hn(B),
h4)
A ∩ B = ∅.
Gilt A ∩ B 6= ∅, dann wird auf der rechten Seite in (∗)
doppelt gezählt, falls A ∩ B eintritt. Also gilt
Hn(A ∪ B) = Hn(A) + Hn(B) − Hn(A ∩ B),
und somit:
hn(A ∪ B) = hn(A) + hn(B) − hn(A ∩ B).
Beispiel Würfel:
A = {1, 2} , B = {2, 3} , A ∪ B = {1, 2, 3}
hn({1 , 2 , 3} = hn({1, 2}) + hn({2, 3}) − hn({2}).
7
Wahrscheinlichkeiten können als Modell verstanden werden für
die Grenzwerte der relativen Häufigkeiten (n → ∞), bzw.
für die Gesetzmäßigkeiten, die dahinterstecken oder dahinter
vermutet werden.
P (A),
A ⊂ Ω (A ∈ A)
Wahrscheinlichkeit des Ereignisses A,
definiert in Analogie zu den Eigenschaften der hn durch ein
Axiomsystem (Kolmogorov, 1933)
A1
0 ≤ P (A) ≤ 1 für alle A ∈ A
A2
P (Ω) = 1,
A3
A ∩ B = ∅ ⇒ P (A ∪ B) = P (A) + P (B)
P (∅) = 0
(Additivität)
Genauer muss man verlangen:
A3’
Für A1, A2, A3, . . . mit Aj ∈ A, j ∈ N, und
Ai ∩ Aj = ∅, i, j ∈ N, i 6= j, gilt
P (A1 ∪ A2 ∪ A3 ∪ . . .) =
∞
X
P (Ai)
i=1
(σ-Additivität)
↑
Grenzwert von
n
X
i=1
8
für n → ∞
Daraus folgen, wie für hn, weitere wichtige Formeln:
P (Ā) = 1 − P (A)
denn: A ∩ Ā = ∅ und A ∪ Ā = Ω,
A3
A2
P (A) + P (Ā) =
P (A ∪ Ā) = P (Ω) =
1.
P (A ∪ B) = P (A) + P (B) − P (A ∩ B)
denn: A ∪ B lässt sich disjunkt zerlegen in A \ B, A ∩ B und
B \ A.
'
$
$
'
A\B
A∩B
&
B\A
%
&
%
Also ist
P (A ∪ B) =
=
P (A \ B) + P (B \ A) + P (A ∩ B)
(P (A) − P (A ∩ B))
+ (P (B) − P (A ∩ B))
+ P (A ∩ B)
Anschaulich:
Ω = Teig der Masse 1 (kg) (ungleichmäßig) ausgerollt.
Ein Plätzchen: A = Ereignis hat die Masse P (A).
9
P (A \ B) = P (A) − P (A ∩ B) = P (A ∩ B̄)
” A und nicht B ”
Beispiel:
Gegeben:
P (A)
= 0.7
P (B)
= 0.4
P (A ∩ B) = 0.15
Dann gilt: P (A ∩ B̄) = 0.7 - 0.15 = 0.55
P (Ā ∩ B) = 0.4 - 0.15 = 0.25
P (A ∪ B) = 0.7 + 0.4 - 0.15 = 0.95
Darstellung in ”Vierfeldertafel”:
B
A 0.15
Ā 0.25
0.4
B̄
0.55 0.7
0.05 0.3
0.6 1
Das Tripel ( Ω, A, P ) heißt Wahrscheinlichkeitsraum.
10
Die klassische Wahrscheinlichkeit
Modell für z.B. Würfeln, Münzwurf, Roulette, Ziehung von
Lottozahlen;
Ausgangspunkt: Man erkennt keinen Grund, einem der
möglichen Versuchsausgänge eine größere Wahrscheinlichkeit
zuzuordnen als einem anderen.
Also:
Ω = {ω1, ω2, . . . , ωn}
Ereignisse {ωi} gleichwahrscheinlich, daraus folgt:
1
P ({ωi}) =
n
denn:
Sei P ({ω1}) = P ({ω2}) = . . . = P ({ωn}) = p .
Dann ist
1 = P (Ω) = P ({ω1}) + P ({ω2}) + . . . + P ({ωn}) = np .
In gleicher Weise erhält man für jedes Ereignis A ∈ A:
X 1
X
P (A) =
P ({ωi}) =
n
i: ωi ∈A
i: ωi ∈A
Also:
P (A) =
=
Anzahl der ωi in A
n
”Anzahl der für A günstigen Fälle”
Anzahl aller möglichen Fälle
Zur Bestimmung dieser Anzahlen sind häufig die Formeln der
Kombinatorik hilfreich.
11
Bedingte Wahrscheinlichkeiten
Beispiel. Spiel: Urne mit 50 Kugeln, leichte und schwere, weiße
und rote, wobei das Ziehen einer roten Kugel einen Gewinn
verspricht, das Ziehen einer weißen nicht.
weiß rot
Verteilung (Vierfeldertafel):
10 g
5
20 25
50 g
20
5
25
25 50
25
Versuch: Ziehen einer Kugel
A . . . ”Die gezogene Kugel ist rot” = ”Gewinn”
B . . . ”Die gezogene Kugel ist schwer”
Klassische Wkt.: P (A) =
25
= 0.5 = 50%.
50
Die Gewinnchance beträgt 50%.
Zusatzinformation: Beim Herausnehmen kann der Spieler
- noch bevor er die Farbe erkennt - zweifelsfrei feststellen, dass
es eine schwere Kugel ist.
5
Er erwartet jetzt nur noch mit PB (A) =
= 0.2 = 20%
25
einen Gewinn.
Die Information ”B ist eingetreten” hat die Bewertung der
Chancen für das Eintreten von A geändert.
12
Sei (Ω, A, P ) ein Wahrscheinlichkeitsraum. Für jedes B ∈ A
mit P (B) > 0 heißt
P (A ∩ B)
PB (A) = P (A | B) =
P (B)
Bedingte Wahrscheinlichkeit von A unter der Bedingung B
Folgerungen:
• Für jedes B ∈ A mit P (B) > 0 werden durch
PB = P ( . | B) Wahrscheinlichkeiten auf A
definiert.
• Diese Wahrscheinlichkeiten sind ”auf B konzentriert”:
P (B | B) = 1.
•
P (A | Ω) = P (A)
• Sei min{ P (A), P (B) } > 0. Dann gilt
P (A | B) · P (B) = P (B | A) · P (A) .
Die bedingte Wahrscheinlichkeit eines jeden Ereignisses ergibt
sich ”aus seinem Anteil an B”.
Formeln für Wkt.en gelten bei fester Bedingung analog.
Bsp.:
P (A ∪ B | C) = P (A | C) + P (B | C) − P (A ∩ B | C)
P (A | B) + P (Ā | B) = 1
13
Mitunter ist bedingte Wkt. P (A | B)
ermitteln als P (A ∩ B). Man benutzt dann:
leichter
P (A ∩ B) = P (A | B) · P (B)
”Multiplikationssatz”
Bsp.: Wiederholtes Ziehen ohne Zurücklegen:
Urne; 10 grüne und 15 gelbe Kugeln
A ... 2. Ziehung gelbe Kugel
B ... 1. Ziehung gelbe Kugel
leicht:
P (B) =
15
3
14
7
= , P (A | B) =
=
25
5
24
12
Es folgt:
P (A ∩ B) = P (A | B) · P (B) =
14
21
7
3 7
·
=
=
5 12
60 20
zu
Unabhängigkeit
Wir vergleichen P (A) mit P (A | B):
Gilt P (A) = P (A | B), dann hat die Information, dass B
eingetreten ist, keinen Einfluss auf die Bewertung der Chance,
dass auch A eingetreten ist.
Definition: Die Ereignisse A und B heißen unabhängig, wenn
gilt:
P (A ∩ B) = P (A) · P (B).
Anderenfalls heißen die Ereignisse abhängig.
Wegen
P (A | B) =
P (A ∩ B)
P (B)
ist Unabhängigkeit dann (falls P (B) 6= 0) gleichbedeutend
mit:
P (A | B) =
P (A ∩ B)
P (A) · P (B)
=
= P (A)
P (B)
P (B)
15
• Definition harmoniert meistens mit der üblichen
Vorstellung von Unabhängigkeit;
Gefahr bei Kopplung über ”dritte”:
– Anzahl der beobachteten Störche am Tag x
– Anzahl der Geburten am Tag x
gekoppelt über saisonale Schwankungen
• Unterscheiden zwischen
– der oben definierten paarweisen Unabhängigkeit von
jeweils zwei Ereignissen und
– der vollständigen Unabhängigkeit von mehr als zwei
Ereignissen
Beispiel: Würfeln mit zwei Würfeln:
A . . . erster Würfel: gerade Zahl
B . . . zweiter Würfel: gerade Zahl
C . . . Summe der Augenzahlen ungerade
P (A) = P (B) = P (C) = 1/2
P (A ∩ B) = P (A ∩ C) = P (B ∩ C) = 1/4
⇒ paarweise unabhängig, aber
P (A ∩ B ∩ C) = 0
16
4.2
Zufallsvariable
4.2.1
Einführung
Eine Zufallsvariable X ordnet jedem elementaren Versuchsausgang ω ∈ Ω eine reelle Zahl X(ω) zu, d.h. X ist eine Funktion
X : Ω→R
Ω 3 ω → X(ω) ∈ R
Bezeichnung:
Zufallsvariable mit Großbuchstaben (X, Y, Z, X1, X2, X3, . . .),
Funktionswert = Wert für konkreten Versuchsausgang ω mit
kleinen Buchstaben X(ω) = x
In der Literatur wird auch der Begriff Zufallsgröße statt
Zufallsvariable verwendet.
Beispiel: Würfeln mit zwei Würfeln
X . . . Summe der Augenzahlen
z.B.
Y ...
X((3, 4)) = 7
Maximum der Augenzahlen
z.B.
Y ((3, 4)) = 4
Beispiel: Auswahl von 100 Personen
X1(ω) = Alter der Person ω1 ,
X2(ω) = Alter der Person ω2 , . . .
n
1 X
Xi(ω) = Durchschnittsalter in der Stichprobe
X̄(ω) =
n i=1
Zufall nicht in der Funktion X, sondern im zufälligen Versuch
mit Ausgang ω !
17
Es interessieren z.B. die folgenden Ereignisse
{ X < x } = { ω : X(ω) < x } ⊂ Ω,
{ X = x },
{ X > x },
usw.
Die Wahrscheinlichkeit P , definiert für Teilmengen aus Ω,
bestimmt die Wahrscheinlichkeiten für die Zufallsvariable X.
Beispiel: Würfeln mit zwei Würfeln
P (X = 7) = P ({ω : X(ω) = 7})
= P ({(1, 6), (2, 5), (3, 4), (4, 3), (5, 2), (6, 1)})
=
6
1
=
36
6
Beispiel: Auswahl von 100 Personen
P ( X1 < 40 ) = Anteil der Unter-40-jährigen in der Population
Problem: Welche Werte x kann die Zufallsvariable X mit
welcher Wahrscheinlichkeit annehmen?
18
4.2.2 Diskrete Zufallsvariable
Eine Zufallsvariable, die nur endlich viele (x1, . . . , xn) oder
abzählbar unendlich viele (x1, x2, . . .) Werte annehmen kann,
heißt diskrete Zufallsvariable.
Beispiel: idealer Würfel
X(ω) = Augenzahl
mögliche Werte xi: (1, 2, 3, 4, 5, 6)
P (X = xi) =
1
6
Verteilungstabelle
xi x1 x2 . . .
pi p1 p2 . . .
allgemein:
pi = P (X = xi)
Beispiel:
X . . . Summe der Augenzahlen bei zwei Würfeln
(Werte zwischen 2 und 12)
xi
2
3
4
5
6
7
8
9
10 11 12
pi
1 2 3 4 5 6 5 4 3 2 1
36 36 36 36 36 36 36 36 36 36 36
(! Probe: Summe der Wahrscheinlichkeiten = 1 ?)
Die Verteilungstabelle beschreibt die Zufallsvariable vollständig.
Aus ihr lassen sich die Wkt.en aller interessierenden Ereignisse
für die Zufallsvariable berechnen!
19
Beispiel:
µ
¶
P (6 ≤ X ≤ 8) = P {X = 6} ∪ {X = 7} ∪ {X = 8}
= P (X = 6) + P (X = 7) + P (X = 8)
5
6
5
16
4
=
+
+
=
=
36
36
36
36
9
Grafische Darstellung
Balkendiagramme
diskreter
Verteilungen
durch
Erwartungswert einer diskreten Zufallsvariablen
n
X
E(X) =
x i pi
bzw.
i=1
∞
X
E(X) =
xi pi
falls Grenzwert existiert
i=1
Beispiel: Würfel
1
1
1
· 1 + · 2 + · · · + · 6 = 3, 5
6
6
6
Schwerpunkt der Verteilung,
vgl. arithmetisches Mittel in deskriptiver Statistik:
Werte xi mit Häufigkeiten ni, n = n1 + n2 + . . . + nk
k
n1x1 + n2x2 + . . . + nk xk
1 X
ni x i
x̄ =
=
n
n i=1
=
k
X
i=1
20
hn({X = xi}) · xi
Streuung (Varianz) D2X, var (X)
var (X) =
n
X
(xi − E(X))2 · pi
i=1
bzw.
var (X) =
∞
X
(xi − E(X))2 · pi ,
falls GW existiert
i=1
Es gilt:
2
2
2
var (X) = E(X−E(X)) = E(X )−(E(X)) =
X
X
x2i pi−(
xipi)2
! vgl. empirische Varianz
Beispiel: Würfel
1
1
(1 − 3, 5)2 + · · · + (6 − 3, 5)2
6
6
1
1
1
1
1
1
= 1 · + 22 · + 32 · + 42 · + 52 · + 62 · − 3, 52
6
6
6
6
6
6
1
= (1 + 4 + 9 + 16 + 25 + 36) − 3, 52
6
1
= · 91 − 3, 52 = 15, 166̄ − 12, 25 = 2, 9166̄
6
var (X) =
Rechenregeln für Erwartungswert und Streuung
E(a · X + b) = a E(X) + b ,
var (a · X + b) = a2 var (X)
21
(a, b ∈ R, X, Y Zufallsvariable )
4.2.3
Wichtige diskrete Verteilungen
Die Binomialverteilung
Modell:
Bernoulli-Schema
Ein Versuch wird unter konstanten Bedingungen n-mal
unabhängig wiederholt. Registriert wird jeweils nur das
Eintreten eines interessierenden Ereignisses A
(Erfolg oder Misserfolg).
X . . . Anzahl der Erfolge (in den n Versuchen)
Beispiel:
1. n-maliger Wurf derselben Münze,
X . . . Anzahl der Wappen
2. n-maliges Würfeln,
X . . . Anzahl der ”6”
3. Entnahme einer Kugel aus ”Urne” mit Zurücklegen (und
Mischen),
X . . . Anzahl der ”roten Kugeln”
p . . . Erfolgswahrscheinlichkeit in jedem Einzelversuch
Beispiel (oben):
1. p =
2. p =
3. p =
1
2
1
6
Anzahl roter Kugeln
Anzahl aller Kugeln
22
X kann die Werte 0,1, . . . , n annehmen
X = 0: nur Misserfolge
P (X = 0) = (1 − p)n
X = 1: genau ein Erfolg (entweder beim 1. oder 2. oder . . . )
P (X = 1) =
n
↑
n Möglichkeiten
· p · (1 − p)n−1
↑
↑
1 Erfolg
n−1 Misserfolge
wann Erfolg
allgemein:
µ ¶
n
P (X = k) =
pk (1 − p)n−k ,
k
k = 0, 1, . . . , n.
↑ vgl. Kombinatorik
X heißt dann
binomialverteilt mit Parametern n und p,
Es gilt:
E(X) = n · p
var (X) = n · p · (1 − p).
23
X ∼ B(n; p)
Beispiel:
1. 10-mal Würfeln mit unverfälschtem Würfel,
1
)
6
Wahrscheinlichkeit, dass genau drei Sechsen dabei sind:
µ ¶ µ ¶3 µ ¶7
10
1
5
P (X = 3) =
·
·
= 0, 155
3
6
6
X . . . Anzahl von ”6”, X ∼ B(10,
2. Die absolute Häufigkeit Hn(A) eines Ereignisses A mit
P (A) = p in n unabhängigen Durchführungen eines
zufälligen Versuches ist B(n; p) -verteilt mit
E(Hn(A)) = np,
var (Hn(A)) = np (1 − p).
Für die relativen Häufigkeiten hn(A) folgt dann
µ
¶
1
1
E(hn(A)) = E
Hn(A) = np = p
n
n
µ
¶
1
1
var (hn(A)) = var
Hn(A) = 2 np (1 − p)
n
n
=
1
p (1 − p).
n
”Die mittlere quadratische Abweichung zwischen hn(A)
und P (A) wird für große n immer kleiner.”
24
Die hypergeometrische Verteilung (info)
Modell:
Entnahme von M Kugeln aus einer Urne mit N Kugeln - davon
sind r rot und (N − r) blau - ohne Zurücklegen
(nicht binomialverteilt!).
X . . . Anzahl der gezogenen roten Kugeln
X kann die Werte 0, 1, . . . , min{r, M } annehmen.
µ ¶µ
¶
r
N −r
m
M −m
µ ¶
, m = 0, 1, . . . , M,
P (X = m) =
N
M
µ ¶
l
falls wir vereinbaren, dass
= 0 gilt, falls L ≤ 0 oder
L
L > l ist.
Plausibel: Falls M klein ist gegenüber N , dann ist der Unterschied zwischen dem Versuch mit und dem ohne Zurücklegen
gering.
Tatsächlich sind dann die Einzelwahrscheinlichkeiten von
Binomial– und hypergeometrischer Verteilung fast gleich.
Wichtig bei Umfragen!
25
Die gleichmäßige diskrete Verteilung
Definition: Eine Zufallsvariable mit der Verteilungstabelle
xk
x1
x2
. . . xn
pk 1/n 1/n . . . 1/n
heißt gleichmäßig diskret verteilt.
Hinweis: Entspricht der klass.Wkt; ideale Münze; idealer Würfel;
Roulette, Lotterie; Urnenschemata; ...
Kenngrößen:
1
1
1
+ x2 · + . . . + xn ·
= x̄
n
n
n
1
1
var (X) = (x1 − x̄)2 · + (x2 − x̄)2 ·
n
n
1
+ . . . + (xn − x̄)2 ·
n
n
1 X
=
(xk − x̄)2
n
E(X) = x1 ·
k=1
26
4.2.4
Stetige Zufallsvariable
Beispiel. Abfüllung von 500–Gramm–Packungen einer
bestimmten Ware auf einer automatischen Abfüllanlage.
Die Zufallsvariable X beschreibe die Füllmenge einer zufällig
ausgewählten Packung in g.
X kann jeden Wert (in der Nähe von 500 g) annehmen.
Bei beliebig genauer Messung wird i.a. jeder konkrete Wert nur
mit Wkt. Null auftreten:
P (X = 500) = 0 ,
aber P (495 < X < 505) wird i.a. positiv sein, und diese
Wahrscheinlichkeit beschreibt den Anteil der Packungen mit
einer Füllmenge zwischen 495 g und 505 g unter allen
abgefüllten Packungen.
Nun: Betrachtung von ’immer feineren’ Histogrammen für eine
Stichprobe mit sehr vielen kontrollierten Packungen
siehe nächste Seite
Bei beliebiger Verfeinerung (und immer größeren Stichprobenumfängen) wird eine Funktion erkennbar.
Die Verteilungsdichte fX modelliert das Histogramm der
relativen Häufigkeiten der Füllmengen aller abgefüllten
Pakete, beziehungsweise das ’Abfüllverhalten’ der Maschine,
wenn diese Werte in immer feinere Intervalle einsortiert
werden.
In jedem Teilintervall entspricht die Fläche unter fX der Wkt.,
dass die ZV Werte in diesem Intervall annimmt.
27
4000
2000
Anzahl
Anzahl
3000
2000
1500
1000
1000
500
0
490,00
500,00
490,00
510,00
500,00
510,00
Füllmenge
Füllmenge
750
1250
1000
Anzahl
Anzahl
500
750
500
250
250
0
490,00
500,00
510,00
490,00
Füllmenge
500,00
Füllmenge
600
500
400
300
200
100
Mean = 500,0029
Std. Dev. = 3,96016
N = 10.000
0
485,00
490,00
495,00
500,00
505,00
Füllmenge
510,00
515,00
510,00
Definition: Eine Zufallsvariable, deren Werte alle reellen Zahlen
in einem bestimmten (endlichen oder unendlichen) Intervall
annehmen können, und für die eine Funktion fX ≥ 0 existiert,
so dass
Z
b
P (a < X < b) =
fX (x)dx
a
gilt, heißt stetige Zufallsvariable.
Die Funktion fX heißt Dichtefunktion der ZV X.
pqqpqqpqqqpqqpqqqpqqpqqqpqqpqqqp
pqqppqqppqp qqppp ppp ppp ppp ppp ppp ppp ppp ppp pppqqpppqqqppqqqp qqpq
q
q
p
p
q
q
q
qqp p p p p p p p p p p p p p p p p p p qpqq
qqpppqqpppqp pppp pppp pppp pppp pppp pppp pppp pppp pppp pppp pppp pppp pppp pppp pppp pppp pppp pppp pppp pppp qppppqqqppp qqppqqqp
q
X
q
q
q p p p p p p p p p p p p p p p p p p p p p p p p p pq
qqqqq ppp ppp ppp ppp ppp ppp ppp ppp ppp ppp ppp ppp ppp ppp ppp ppp ppp ppp ppp ppp ppp ppp ppp ppp ppp ppp qqqqqqqqq
q
q
q
pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp qqqqq
qqqqq
qqqqqq
pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp
qqqqqq
qqqqqqq
pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp
q
q
q
q
q
q
q
qqqqqqqq
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
q
q
pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp pp
qqqqq
qqqqqqqqqqqqq
q
q
q
q
q
q
q
q
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
p
q
q
q
qqqqqq
pppppppppppppppppppppppppp
qqqqqqqq
f
a
b
>
Verteilungsfunktion FX der Zufallsvariablen X
Z x
FX (x) = P (X ≤ x) =
fX (y)dy .
−∞
qqqq
qqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqqq
qqqqqqqqqqqqqqqqqq
q
q
q
q
q
q
q
q
q
q
q
q
qq
qqqqqqqqqqq
X
qqqqqqqqqq
6
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qqqqqq
qqqqqqqqq
? qqqqqqqqqqqqqqqqqqq
qqqqqqqqq
qqqqqqqqqqqqqqqq
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
q
qq
F
P (a < X < b)
a
b
>
Im Beispiel ist also F (495) die Wahrscheinlichkeit, dass ein
zufällig ausgewähltes Paket eine Füllmenge von höchstens 495 g
aufweist und modelliert den Anteil aller solcher Pakete an der
Gesamtproduktion dieser Maschine.
Außerdem gilt P (495 < X < 505) = FX (505) − FX (495).
28
Hinweis: Da für jeden Wert x gilt: P (X = x) = 0, braucht
man bei stetigen ZV nicht zwischen
P (a < X < b), P (a < X ≤ b), P (a ≤ X < b) und
P (a ≤ X ≤ b) zu unterscheiden!
Es gilt für stetige ZV:
P (a ≤ X ≤ b) = FX (b) − FX (a)
P (X ≤ b) = FX (b)
P (a ≤ X) = 1 − FX (a)
Allgemeines:
Die Verteilungsfunktion kann auch für diskrete ZV definiert
werden.
Eigenschaften einer Verteilungsfunktion:
1. FX ist monoton nichtfallend.
2. FX ist rechtsstetig.
3. lim FX (x) = 0
x→−∞
4. lim
x→∞
FX (x) = 1
29
Erwartungswert einer stetigen Zufallsvariablen X:
Z ∞
E(X) =
x fX (x) dx
−∞
Rechenregeln:
X Zufallsvariable, dann auch a · X + b, a, b ∈ R
E(aX + b) = a E(X) + b
Beispiel: Stetige gleichmäßige Verteilung über dem Intervall
[a,b] aus R:

 1 , x ∈ [a, b]
b−a
fX (x) =

0
sonst
”Rechteckverteilung” entspricht der diskreten gleichmäßigen
Verteilung; jedes Teilintervall von [a,b] gleicher Länge hat die
gleiche Wahrscheinlichkeit


0
, x<a




x−a
FX (x) =
, x ∈ [a, b]

b
−
a



1
, x>b
Z
E(X) =
b
x·
a
a+b
1
dx =
b−a
2
30
Streuung (Varianz)
2
var (X) = D2X = σX
= E(X − E(X))2
Z ∞
=
(x − E(X))2 fX (x) dx
−∞
! Zahl
= E(X 2) − (E(X))2
Z ∞
↑
x2fX (x)dx
−∞
Beispiel: Stetige gleichmäßige Verteilung über [a,b]
(b − a)2
var (X) =
12
Rechenregel:
var (a · X + b) = a2 var (X)
31
(a, b ∈ R)
Die Normalverteilung
1. wichtigste stetige Verteilung
2. viele Größen sind (näherungsweise!) normalverteilt
Gauß −→ Beschreibung von Messfehlern
3. Bedeutung folgt aus sogenannten Grenzwertsätzen
Summen sehr vieler kleiner (unabhängiger) Summanden
−→ NV
Dichtefunktion der NV: Gaußsche Glockenkurve
(x−µ)2
1
−
f (x) = √ · e 2σ2 ,
σ 2π
NV mit dem Parameter µ und σ
X ∼ N (µ, σ 2)
µ: Zentrum
σ: Form
E(X) = µ, var (X) = σ 2
32
−∞ < x < ∞
linke Kurve: Dichtefunktion einer N(0,1)-verteilten ZV
rechte Kurve: Dichtefunktion einer N(3,1)-verteilten ZV
linke Kurve: Dichtefunktion einer N(0,1)-verteilten ZV
rechte Kurve: Dichtefunktion einer N(3,4)-verteilten ZV
Es gilt: Ist X ∼ N (µ, σ 2), dann ist
Z=
X −µ
σ
standard-normalverteilt: Z ∼ N (0, 1)
mit Dichtefunktion:
2
1
− x2
ϕ(x) = √ · e
2π
und Verteilungsfunktion:
1
Φ(x) = √
2π
Z
x
e
2
− t2
dt
−∞
(Gaußsche Fehlerfunktion)
Begriff: Standardisieren
Hinweis: Die Verteilungsfunktion einer Normalverteilung
(z.B. Φ(x)) ist keine mit einer Formel darstellbare elementare
Funktion. Man verwendet deshalb Tafeln für Φ(x) !
33
Bestimmung von Wahrscheinlichkeiten aus Tafeln
(Tafel im Aufgabenheft)
!!! Tafeln existieren nur für die Werte der Verteilungsfunktion
Φ(x) der N (0, 1)-Verteilung für positive Werte x
Ablesebeispiele:
Φ(1) = 0, 841345
Φ(1, 1) = 0, 864334
Φ(1, 11) = 0, 866500
Es gilt
Φ(x) = 1 − Φ(−x)
also z.B.
Φ(−1) = 1 − Φ(1) = 1 − 0, 841345 = 0, 158655
X ∼ N (µ, σ 2), dann
µ
¶
a−µ
σ
¶
µ
¶
µ
a−µ
b−µ
− Φ
P (a < X < b) = Φ
σ
σ
µ
¶
b−µ
P (X > b) = 1 − Φ
σ
P (X < a) = Φ
Achtung: Division durch σ, nicht durch σ 2
Beispiel:
X ∼ N (8, 9),
Gesucht P (X < 10)
¶
µ ¶
µ
2
10 − 8
= Φ
= 0, 747
P (X < 10) = Φ
3
3
34
Quantile der (standardisierten) Normalverteilung
Φ(zq ) = q
zq . . . Quantil der Ordnung q
z0,95 = 1, 645
Andere Bezeichnung möglich!
Zusammenhang mit sogenannten kritischen Werten:
z1−α , Φ(z1−α ) = 1 − α (”einseitige Fragestellung”):
rrrrrrrrrrrrrrrrrrrrrrrrrr
rrrrrrrr
rrrrr
r
r
r
r
rrrrr
rrrr
r
rrrr
r
rr
rrrr
r
r
r
rrr
r
rr
rrrr
r
r
rrr
r
r
r
rrrr
r
rrr
rrrr
r
r
r
r
rrrr
r
r
r
r
rrrrr
r
rr
r
r
rrrrr
r
r
r
r
r
rrrrrr
r
rrrr
r
r
pprrrpprrprrr¡
r
r
r
r
r
r
r
r
rr
pp pp¡
pp pprrrpprrrpprrrprrrprrrrrrrr
ª
rrrrrrrrrrrrrrr
ϕ
Fläche = α
0
z1−α
z1−α/2 , Φ(z1−α/2) = 1 − α/2 (”zweiseitige Fragestellung”):
rrrr
rrrrrrrrrrr rrrrrrrrrrrrrrrr
rrrrr
rrrrr
r
r
r
r
rrrr
rrr
r
r
rrrr
r
rrr
rrrr
r
r
r
r
rrrr
r
rr
rrrr
r
r
r
rrr
r
rr
rrrr
r
r
r
rrrr
r
r
r
r
rrrr
α
r
rrr
rrrrr
r
r
r
r
rrrrr
r
r
2 rrrrrr
rrrrrrr
@ rrrrrrrrr
rrrrprrrr ¡
r
r
r
r
r
r
r
p
p
p
p
p
pp ¡
pprrrpp rrpprrrpprrrprrrp rrrp
r
r
r
@
¡
r
r
r
r
@
R
ª
r
r
r
r
rrp p p p p p p p
ϕ
Fläche =
−z1− α2
Fläche =
0
35
z1− α2
α
2
”k · σ Grenzen” für die Normalverteilung:
Für X ∼ N (µ, σ 2) gilt
P (|X − µ| ≤ kσ) = 2Φ(k) − 1 und für k = 1, 2, 3 ergibt sich
1 · σ Grenze: 0,6826 ,
2 · σ Grenze: 0,9546 ,
3 · σ Grenze: 0,9974 .
rrrrrrrrrrrrrrrrrrrrrrrrr
rrrrrrr
rrrrr
r
r
r
rrrrr
rr
rrrr
rrrr
r
r
r
rrrr
r
rr
rrr
X
r
r
r
rrrr
r
r
r
r
rrr
r
r
r
r
r
rrrr
rrr
rrrr
rrrr
rrrr
r
r
r
r
rrrrr
r
r
r
r
r
rrrrr
r
rrrr
rrrrrr
r
r
r
r
r
r
rrrrrrrr
r
r
r
rrrr
r
rrrrrrrrrrr
r
r
r
r
r
r
r
r
r
rrrrrrrr
rrrrrrrrrrr
f
µ−3σ
µ−2σ
µ−σ
µ
µ+σ
µ+2σ
µ+3σ
Hinweis:
Im Zusammenhang mit der Behandlung von Aufgaben der
schließenden Statistik benötigt man verschiedene weitere
stetige Verteilungen und deren Tafeln.
Beispiele: χ2-, t-, F-Verteilung (im Zusammenhang mit der
Normalverteilung) −→ später
und weitere Verteilungen im Zusammenhang mit sogenannten
nichtparametrischen Tests.
36
Herunterladen