8.2 Zufallsvariable und Verteilungen

Werbung
8.2
Zufallsvariable und Verteilungen
Sei weiter W = (Ω, E, p) ein Wahrscheinlichkeitsraum. Unter einer Zufallsvariablen X von
W versteht man eine Funktion X : Ω −→ R, t 7→ X(t), für die {ω ∈ Ω; X(ω) ≤ t} für alle
t ∈ R ein Ereignis ist (man spricht auch von einem messbaren Ereignis). Man kann dann
die von t ∈ R abhängigen Ereignisse {ω ∈ Ω; X(ω) ≤ t} betrachten. Eine Zufallsvariable
nennt man diskret, wenn sie höchstens abzählbar viele Werte annimmt.
Die Funktion
F : R −→ [0, 1] ; t 7→ p({ω ∈ Ω; X(ω) ≤ t})
nennt man die Verteilungsfunktion von X.
Es ist üblich mit X = ti die Menge {ω ∈ Ω; X(ω) = ti } abzukürzen bzw. mit X ≤ ti die
Menge {ω ∈ Ω; X(ω) ≤ ti }. Beachte X ≤ ti ist nach Definition einer Zufallsvariablen stets
ein Ereignis. X = ti ist ein Ereignis, wenn X diskret ist und jedes Elementarereignis eine
Wahrscheinlichkeit besitzt. Analog verwendet man auch die Schreibweisen t1 ≤ X ≤ t2
und |X| ≤ t0 .
Ist X eine diskrete Zufallsvariable mit Werten {ti }, dann setzt man pi := p(X = ti ) und
nennt die Funktion
(
pi wenn x = ti
.
fX (x) : R −→ [0, 1], x 7→
0 sonst
Wahrscheinlichkeitsfunktion von X. Im diskreten Fall bestimmen sich fX und Verteilungsfunktion F gegenseitig und es genügt die pi anzugeben. Die Verteilung einer diskreten
Zufallsvariablen gibt man daher vereinfacht durch ihre Wahrscheinlichkeitsfunktion an.
Wenn klar ist, um welche Zufallsvariable es sich handelt, schreiben wir einfach f für fX .
Beispiele wichtiger diskreter Verteilungen :
• Binomialverteilung B(n,p). Diese Verteilung entsteht durch n - malige Wiederholung eines Bernoulli - Experiments. Man ist daran interessiert, wie oft ein gewisses
Ereignis A (z.B. Kopf beim Münzwurf) in unabhängigen Versuchen vorkommt. Die
Zufallsvariable lässt sich dann beschreiben als
X = Anzahl, wie oft A in n Versuchen vorkommt.
X kann also die Werte 0, 1, . . . , n annehmen. Tritt A in einem
Versuch mit Wahrscheinlichkeit p auf, dann hat X = k die Wahrscheinlichkeit nk pk (1−p)n−k , vgl. das
Beispiel im Abschnitt 8.2. Man kann etwas präziser die Binomialverteilung B(n,p)
definieren als jene diskrete Verteilung, die die Wahrscheinlichkeitsfunktion
n x
p (1 − p)n−x x ∈ {0, . . . , n}
f (x) =
x
183
P
besitzt. Ihre Verteilungsfunktion besitzt dann jk=0 nk pk (1 − p)n−k , also Teilsummen von
n X
n k
n
p (1 − p)n−k .
1 = (p + (1 − p)) =
k
k=0
als Werte. Dies erklärt auch den Namen Binomialverteilung.
• Die Poissonverteilung P (λ) ist jene Verteilung mit der Wahrscheinlichkeitsfunktion
λn
p({n}) = e−λ ·
mit n ∈ N0 .
n!
Sie findet z.B. Anwendung, wenn man sich für die Anzahl von Zerfällen eines radioaktiven Stoffes pro Zeiteinheit interessiert. λ ist dann die durchschnittliche Anzahl
von Zerfällen pro Zeiteinheit.
• Die hypergeometrische Verteilung beschreibt das Urnenmodell ohne Zurücklegen. Etwas allgemeiner ausgedrückt werden einer Menge M mit m Elementen,
von denen genau a Elemente eine Eigenschaft A besitzen, also die anderen m − a
Elemente nicht, n Elemente entnommen und die Wahrscheinlichkeit beschrieben,
dass genau k dieser n Elemente die Eigenschaft A besitzen. Eine zugehörige Zufallsvariable besitzt daher sinnvollerweise die Wertemenge W = {0, 1, . . . , n} an. Die
Wahrscheinlichkeitsfunktion für k ∈ W ist gegeben durch
p(X = k) =
a
k
·
m−a
n−k
m
n
.
N
Dies folgt leicht aus den Eigenschaften der Binomialkoeffizienten.
gibt die Ann
m
zahl der Teilmengen von M an, die n Elemente besitzen, k ist die Anzahl von
k - elementigen Teilmenge aus jener Teilmenge T von M, die aus den Elementen
besteht, die die Eigenschaft A besitzen und m−a
ist die Anzahl der (n-k) - elementin−k
gen Teilmengen von M \ T . Das Produkt im Zähler der Wahrscheinlichkeitsfunktion
beschreibt also genau die Anzahl der n - elementigen Teilmengen von M, die genau
k Elemente mit Eigenschaft A besitzen.
Die Verteilungsfunktion ergibt sich dann aus der Wahrscheinlichkeitsfunktion durch
Addition, d.h.
p(X ≤ k) =
k
X
i=0
a
i
·
m−a
n−i
m
n
.
Im Urnenmodell ist M die Menge der Kugeln in der Urne, a die Anzahl der Kugeln
die eine bestimmte Farbe, etwa blau, besitzen und m−a die Anzahl der Kugeln , die
eine andere Farbe besitzen. n Kugeln werden dann gleichzeitig (oder nacheinander
ohne Zurcklegen) aus der Urne gezogen. und P (X = k) gibt die Wahrscheinlichkeit
an, dass genau k Kugeln dieser n blau sind.
Typisches Beispiel fr dieses Urnenmodell ist die Lottoziehung 6 aus 49. Die auf dem
184
Lottoschein angekreuzten Ziffern darf man sich dann als blaue “Kugeln vorstellen
”
und die Wahrscheinlichkeit, dass davon k gezogen werden berechnet sich zu
43 6
·
p(X = k) = k 496−k .
6
Man beachte, dass es nicht darauf ankommt, in welcher Reihenfolge die Kugeln
gezogen worden sind.
Im Gegensatz zur hypergeometrischen Verteilung werden beim Urnenmodell, welches die Binomialverteilung beschreibt, die Kugeln nacheinander mit Zurücklegen
gezogen. Wie die Binomialverteilung so eignet sich auch die hypergeometrische Verteilung zur Qualitätskontrolle einer Lieferung von Waren.
Beispiel: Aus einer Schachtel mit 10 Glühbirnen, von denen 3 defekt sind, sollen
zwei Glühbirnen zufällig (ohne Zurücklegen) ausgewählt werden. Man beschreibe
die Wahrscheinlichkeitsfunktion der Zufallsvariablen X, die die Anzahl der defekten Glühbirnen dieser Stichprobe angibt. X is hypergeometrisch verteilt und als
Wahrscheinlichkeitsfunktion ergibt sich somit
3
7
·
p(X = k) = k 102−k .
2
Würde man die gleiche Stichprobe mit Zurücklegen durchführen, so ist X binomial
verteilt und als Wahrscheinlichkeitsfunktion ergibt sich
2 k
p (1 − p)2−k
p(X = k) =
k
mit p = 0, 3. Vergleicht man die Ergebnisse für den Fall k = 1 , also für die Wahrscheinlichkeit, dass genau eine der zwei gezogenen Glühbirnen defekt ist, so ergibt
21
sich im hypergeometrischen Fall p(X = 1) = 45
∼ 0, 47, während sich im binomialen
Fall p(X = 1) = 2 · 0, 3 · 0, 7 = 0, 42 ergibt.
Wenn die Parameter m, a und m − a im Verhältnis zu n groß sind, dann spielt es
offensichtlich kaum eine Rolle, ob zurückgelegt wird. In diesem Fall kann man die
hypergeometrische Verteilung mit der Binomialverteilung approximieren.
Satz 8.2.1: Für die Verteilungsfunktion F einer Zufallsvariablen gilt
(i) x ≤ y =⇒ F (x) ≤ F (y)
(ii) limx−→−∞ F (x) = 0 und limx−→∞ F (x) = 1
(iii) F ist rechtsseitig stetig.
Falls es eine integrierbare Funktion f : R −→ [0, ∞) gibt mit
Z t
F (t) =
f (x)dx
−∞
185
Herunterladen