2 Zufallsvariable 2.1 Einführung Anliegen: Beschreibung von

Werbung
2
Zufallsvariable
2.1
Einführung
Anliegen: Beschreibung von Versuchsergebnissen mit Zahlen,
um mit Zahlen bzw. bekannten Funktionen rechnen zu können.
Eine Zufallsvariable X ordnet jedem elementaren Versuchsausgang ω ∈ Ω eine reelle Zahl X(ω) zu, d.h. X ist eine Funktion
X : Ω→R
Ω 3 ω → X(ω) ∈ R
Bezeichnung:
Zufallsvariable mit Großbuchstaben (X, Y, Z, X1, X2, X3, . . .),
Funktionswert = Wert für konkreten Versuchsausgang ω mit
kleinen Buchstaben X(ω) = x
In der Literatur wird auch der Begriff Zufallsgröße statt
Zufallsvariable verwendet.
Beispiel: Würfeln mit zwei Würfeln
X . . . Summe der Augenzahlen
z.B.
Y ...
X((3, 4)) = 7 ,
d.h. Versuchsergebnis x = 7
Maximum der Augenzahlen
z.B.
Y ((3, 4)) = 4 ,
1
d.h. Versuchsergebnis y = 4
Beispiel: Auswahl von 100 Personen: ω = ( ω1, . . . , ω100)
X1(ω) = Alter der Person ω1 ,
X2(ω) = Alter der Person ω2 , . . .
1 100
1 100
X
X
X̄(ω) =
Xi(ω) =
xi = x̄
100 i=1
100 i=1
= Durchschnittsalter in der Stichprobe
• Unterscheiden zwischen X̄ und x̄ !
• Zufall nicht in der Funktion X, sondern im zufälligen
Versuch mit Ausgang ω !
Die Wahrscheinlichkeit P , definiert für Teilmengen aus Ω,
bestimmt die Wahrscheinlichkeiten für die Zufallsvariable X.
Beispiel: Würfeln mit zwei Würfeln
P (X = 7) = P ({ω : X(ω) = 7})
= P ({(1, 6), (2, 5), (3, 4), (4, 3), (5, 2), (6, 1)})
=
6
1
=
36
6
Beispiel: Zufälliges Auswählen einer Maispflanze und
Messen des Aflatoxin–Gehaltes in ppb = X(ω)
P ( X < 10 ) = Anteil der Maispflanzen mit einem
Aflatoxin–Gehalt unter 10 ppb
2
2.2 Diskrete Zufallsvariable
Eine Zufallsvariable, die nur endlich viele (x1, . . . , xn) oder
abzählbar unendlich viele (x1, x2, . . .) Werte annehmen kann,
heißt diskrete Zufallsvariable.
Beispiel: idealer Würfel
X(ω) = Augenzahl
mögliche Werte xi: (1, 2, 3, 4, 5, 6)
P (X = xi) =
1
6
Verteilungstabelle
xi x1 x2 . . .
pi p1 p2 . . .
allgemein:
pi = P (X = xi)
Beispiel:
X . . . Summe der Augenzahlen bei zwei Würfeln
(Werte zwischen 2 und 12)
xi
2
3
4
5
6
7
8
9
10 11 12
pi
1 2 3 4 5 6 5 4 3 2 1
36 36 36 36 36 36 36 36 36 36 36
(! Probe: Summe der Wahrscheinlichkeiten = 1 ?)
Die Verteilungstabelle beschreibt die Zufallsvariable vollständig.
Aus ihr lassen sich die Wkt.en aller interessierenden Ereignisse
für die Zufallsvariable berechnen!
3
Beispiel:
µ
P (6 ≤ X ≤ 8) = P {X = 6} ∪ {X = 7} ∪ {X = 8}
¶
= P (X = 6) + P (X = 7) + P (X = 8)
5
6
5
16
4
+
+
=
=
36
36
36
36
9
=
Grafische Darstellung
Balkendiagramme
diskreter
Verteilungen
0.16
0.14
0.12
0.1
0.08
0.06
0.04
0.02
0
2
4
6
8
4
10
12
durch
Verteilungsfunktion: F : R → [ 0, 1 ] ,
F (x) = P (X ≤ x)
Beispiel:
1
0.8
0.6
0.4
0.2
–5
0
5
10
15
Allgemeines:
Eigenschaften einer Verteilungsfunktion:
1. F ist monoton nichtfallend.
2. F ist rechtsstetig.
3. lim F (x) = 0
x→−∞
4. x→∞
lim F (x) = 1
5
20
Erwartungswert einer diskreten Zufallsvariablen
E(X) =
n
X
i=1
xi pi
bzw.
E(X) =
∞
X
i=1
xi pi ,
falls Grenzwert existiert
Beispiel: Würfel
1
1
1
· 1 + · 2 + · · · + · 6 = 3, 5
6
6
6
Schwerpunkt der Verteilung,
vgl. arithmetisches Mittel:
Werte xi mit Häufigkeiten ni ,
x̄ =
n = n1 + n2 + . . . + nk
n1x1 + n2x2 + . . . + nk xk
1
=
n
n
=
6
k
X
i=1
k
X
i=1
ni x i
hn({X = xi}) · xi
Streuung (Varianz) D2X, var (X)
var (X) =
n
X
i=1
(xi − E(X))2 · pi
bzw.
var (X) =
∞
X
(xi − E(X))2 · pi ,
i=1
falls GW existiert
Es gilt:
var (X) = E(X−E(X))2 = E(X 2)−(E(X))2 =
X
x2i pi−(
X
xipi)2
Beispiel: Würfel
var (X) =
1
1
(1 − 3, 5)2 + · · · + (6 − 3, 5)2 oder einfacher:
6
6
= 1·
1
1
1
1
1
1
+ 22 · + 32 · + 42 · + 52 · + 62 · − 3, 52
6
6
6
6
6
6
1
(1 + 4 + 9 + 16 + 25 + 36) − 3, 52
6
1
= · 91 − 3, 52 = 15, 166̄ − 12, 25 = 2, 9166̄
6
=
Rechenregeln für Erwartungswert und Streuung
E(a · X + b) = a E(X) + b ,
var (a · X + b) = a2 var (X)
7
(a, b ∈ R , X Zufallsvariable )
2.3
Wichtige diskrete Verteilungen
Die Binomialverteilung
Modell:
Bernoulli-Schema
Ein Versuch wird unter konstanten Bedingungen n-mal
unabhängig wiederholt. Registriert wird jeweils nur das
Eintreten eines interessierenden Ereignisses A
(Erfolg oder Misserfolg).
X . . . Anzahl der Erfolge (in den n Versuchen)
Beispiel:
1. n-maliger Wurf derselben Münze,
X . . . Anzahl der Wappen
2. n-maliges Würfeln,
X . . . Anzahl der ”6”
3. Entnahme einer Kugel aus ”Urne” mit Zurücklegen (und
Mischen),
X . . . Anzahl der ”roten Kugeln”
p . . . Erfolgswahrscheinlichkeit in jedem Einzelversuch
Beispiel (oben):
1. p =
2. p =
1
2
1
6
roter Kugeln
3. p = Anzahl
Anzahl aller Kugeln
8
X kann die Werte 0,1, . . . , n annehmen
X = 0: nur Misserfolge
P (X = 0) = (1 − p)n
X = 1: genau ein Erfolg (entweder beim 1. oder 2. oder . . . )
P (X = 1) =
n
↑
n Möglichkeiten
· p · (1 − p)n−1
↑
↑
1 Erfolg
n−1 Misserfolge
wann Erfolg
allgemein:


P (X = k) = 

n k
n−k
 p (1 − p)
,
k
k = 0, 1, . . . , n.
↑ vgl. Kombinatorik
X heißt dann
binomialverteilt mit Parametern n und p,
Es gilt:
E(X) = n · p
var (X) = n · p · (1 − p).
9
X ∼ B(n; p)
Beispiel:
1. 10-mal Würfeln mit unverfälschtem Würfel,
1
)
6
Wahrscheinlichkeit, dass genau drei Sechsen dabei sind:
X . . . Anzahl von ”6”, X ∼ B(10,






3
5 7
10  1 

P (X = 3) =   ·
·
= 0, 155
3
6
6
2. Die absolute Häufigkeit Hn(A) eines Ereignisses A mit
P (A) = p in n unabhängigen Durchführungen eines
zufälligen Versuches ist B(n; p) -verteilt mit
E(Hn(A)) = np,
var (Hn(A)) = np (1 − p).
Für die relativen Häufigkeiten hn(A) folgt dann
¶
1
1
E(hn(A)) = E
Hn(A) = np = p
n
n
µ
¶
1
1
var (hn(A)) = var
Hn(A) = 2 np (1 − p)
n
n
µ
=
1
p (1 − p).
n
”Die mittlere quadratische Abweichung zwischen hn(A)
und P (A) wird für große n immer kleiner.”
10
Die hypergeometrische Verteilung
Modell:
Entnahme von M Kugeln aus einer Urne mit N Kugeln –
davon sind r rot und (N − r) blau – ohne Zurücklegen
(! nicht binomialverteilt).
X . . . Anzahl der gezogenen roten Kugeln
X kann die Werte 0, 1, . . . , min{r, M } annehmen.

 

r  N −r 
  

m  M − m
P (X = m) =
, m = 0, 1, . . . , M,
N




M


l
  = 0 gilt, falls L ≤ 0 oder L > l
falls wir vereinbaren, dass 
L
ist.
Plausibel: Falls M klein ist gegenüber N , dann ist der Unterschied zwischen dem Versuch mit und dem ohne Zurücklegen
gering.
Tatsächlich sind dann die Einzelwahrscheinlichkeiten von
Binomial- und hypergeometrischer Verteilung fast gleich.
Beispiel: In einem Zuchtteich für Forellen befinden sich 1000
Fische. Es sollen 100 Fische gefangen werden. Dabei wird angenommen, dass 8% aller Fische im Teich nicht zum Verkauf
geeignet sind. Wie groß ist die Wahrscheinlichkeit, dass von den
100 zu fangenden Fischen höchstens zwei nicht zum
Verkauf geeignet sind?
11
Die Poisson–Verteilung
Verteilung ”seltener Ereignisse”; Grenzverteilung der Binomialverteilung für kleine Erfolgswahrscheinlichkeiten p und große
Versuchsanzahlen n:
es gilt:
λi −λ
P (X = i) = e ,
i!
E(X) = λ
i = 0, 1, 2 . . .
var (X) = λ
Also: Bernoulli–Schema mit großem n und ”kleinem” p
näherungsweise mit Poisson–Verteilung behandelbar
Richtwerte: n · p ≤ 10 oder n ≥ 1500 · p
λ wählen als n · p bzw. schätzen: λ ≈
m Versuchen (Stichprobe)
m
1 X
xi aus
m i=1
Beispiele:
1. seltene ”Naturerscheinungen”, Katastrophen pro Jahr
(n ”kurze Zeitintervalle ” z.B. Tage,
p Katastrophenwahrscheinlichkeit am Tag)
2. Anzahl von:
• Sternschnuppen, Spontanzerfällen,
• Unfällen, Todesfällen
• ankommenden Kunden (allgemein: ”Forderungen”
→ Bedienungstheorie)
• Ausfällen von Maschinen oder anderen technischen
Systemen (Zuverlässigkeitstheorie)
in einem bestimmten Zeitintervall
12
Beispiel: Die Wahrscheinlichkeit für die Totgeburt eines Kalbes
sei p = 0, 001. Wie groß ist die Wahrscheinlichkeit, dass es in
einer Herde von 300 trächtigen Kühen bei den 300 Geburten
(a) keine
(b) genau eine
(c) mehr als zwei Totgeburten
gibt?
13
Herunterladen