Stochastikteil

Werbung
Inhaltsverzeichnis
11 Elementare Stochastik
11.1 Diskrete Wahrscheinlichkeitsverteilungen
11.2 Allgemeine Wahrscheinlichkeitsräume . .
11.2.1 Bedingte Wahrscheinlichkeiten . .
11.2.2 Stochastische Unabhängigkeit . .
11.3 Erwartungswert und Varianz . . . . . . .
11.4 Grenzwertsätze . . . . . . . . . . . . . .
11.4.1 Gesetze der großen Zahlen . . . .
11.4.2 Der Zentrale Grenzwertsatz . . .
1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3
3
18
21
25
26
35
35
37
2
INHALTSVERZEICHNIS
Kapitel 11
Elementare Stochastik
11.1
Ergebnisräume und Wahrscheinlichkeitsverteilungen
Unter einem Zufallsexperiment verstehen wir ein Experiment, dessen Ausgang nicht
durch irgendwelche Naturgesetze festgelegt ist, sondern allein durch den Zufall bestimmt wird. Insbesondere können unabhängige Wiederholungen eines Zufallsexperiments unterschiedliche Ergebnisse bringen.
Beispiele: 1) Das Versetzen von Eisensulfat mit Salzsäure ist kein Zufallsexperiment, da feststeht, was das Ergebnis sein wird: Es wird Schwefelwasserstoff freigesetzt.
2) Wird ein freihängendes Pendel angestoßen, so beginnt es zu schwingen. Auch
hier liegt kein Zufallsexperiment vor.
3) Wird mit zwei Würfeln geworfen, so ist die geworfene Zahl nicht vorherbestimmt.
4) Eine Lottoziehung ist ein Zufallsexperiment
5) Dasselbe gilt für Qualitätskontrollen, Messungen mit hoher Genauigkeitsanforderung, Materialtests (Bestimmung der Reißlast von Seilen oder Kabeln, Testen der
Durchrostungszeit von Karosserieen).
(A) Der Rahmen für ein mathematisches Modell eines Zufallsexperimentes
Die Ergebnisse eines Zufallsexperiments werden zu einer Menge Ω zusammengefasst, die man auch als den Ergebnisraum bezeichnet. Seine Elemente nennt man die
Elementarereignisse.
Beispiele. i) Beim Roulette kann man etwa Ω = {0, 1, 2, ..., 36} wählen.
3
4
KAPITEL 11. ELEMENTARE STOCHASTIK
ii) Beim Würfeln mit 2 Würfeln ist etwa
Ω = {(k, l) : 1 ≤ k, l ≤ 6}
angemessen.
iii) Angenommen, man wirft eine Münze 10-mal. Dann ist
Ω := {(a1 , ..., a10 ) : ai ∈ {0, 1}, fuer i = 1, ...., 10}
der geeignete Ergebnisraum.
iv) Beim Lottospiel 6 aus 49 ist
Ω = {A ⊂ {1, ...., 49} : ]A = 6}
der passende Ergebnisraum. Hierbei bedeutet für eine endliche Menge M das Symbol
]M die Anzahl der in M enthaltenen Elemente.
v) Für Messungen irgendwelcher kontinuierlicher Größen (etwa Schwingdauer eines Pendels) werden Mengen wie R oder Intervalle wie [0, ∞) als Ergebnisräume
benötigt.
In vielen Fällen interessieren bei einem Zufallsexperiment aber nicht die Elementarereignisse, sondern vornehmlich Mengen von Elementarereignissen, also Mengen
A ⊂ Ω, welche wir als Ereignisse bezeichnen.
a) Beim Würfeln mit 2 Würfeln etwa hat nur die Augenzahl Bedeutung: Wenn
es darum geht, ob man mindestens eine 8 geworfen hat, so interessiert nicht, ob der
erste Würfel eine 6 und der zweite mindestens eine 2 zeigt, oder ob der erste Würfel
mindestens eine 5 und der zweite mindestends eine 3, sondern wichtig ist nur das
Ereignis
A := {(2, 6), (3, 5), (4, 4), (5, 3), (6, 2), (3, 6), (4, 5), (5, 4), (6, 3),
(4, 6), (6, 4) (5, 6), (6, 5), (6, 6)}
b) Führt man eine Messung durch, Ω = [0, ∞), so kann man ohnehin nicht 100prozentige Genauigkeit des Messwertes erwarten (Unzulänglichkeit der Messapparatur
u. ä.) Man strebt daher nur an, dass der Messwert in einem bestimmten Intervall liegt.
Die relevanten Ereignisse sind hier also nicht Punkte aus [0, ∞) sondern Teilintervalle
davon.
c) Beim Bogenschießen ist etwa Ω = B2 (0, R) und die Ereignisse, die interessieren,
sind hier die Kreisringe A = B2 (0, r2 ) \ B2 (0, r1 ).
(B) Wahrscheinlichkeitsverteilungen
Wir nehmen nun an, irgendein Zufallsexperiment werde durch einen Ergebnisraum
Ω beschrieben.
11.1. DISKRETE WAHRSCHEINLICHKEITSVERTEILUNGEN
5
Definition. Unter einer Mengenalgebra von Ereignissen in Ω verstehen wir ein
System M von Teilmengen von Ω, so dass folgende Regeln erfüllt werden:
1) Ω ∈ M ,
2) Ist A ∈ M , so auch Ac ∈ M ,
3) Sind A, B ∈ M , so auch A ∪ B ∈ M .
c
c
c
Wir bemerken: Mit
A, B ∈M ist auch A∩B ∈ M , denn (A∩B) = A ∪B ∈ M ,
also auch A ∩ B = (A ∩ B)c
c
∈ M.
Per Induktion nach n folgt nun: Sind A1 , ..., An ∈ M , so auch A1 ∪ ... ∪ An ∈ M
und A1 ∩ ... ∩ An ∈ M .
Was Wahrscheinlichkeit ist, lässt sich sicherlich nicht exakt definieren (dasselbe
gilt ja auch für Begriffe wie Zeit oder Energie). Aber es liegt nahe zu versuchen, jedem
Ereignis A ⊂ Ω eine Zahl P (A) aus [0, 1] zuzuordnen, die misst, ob man sich auf das
Eintreten des Ereignisses gefasst machen muss oder man davon ausgehen kann, dass
es nicht eintritt. Dabei wird P (A) > 1/2 dahingehend verstanden, dass man sich
auf das Eintreten von A einstellen sollte, während P (A) < 0.05 bedeuten würde,
dass man nicht mit A zu rechnen braucht. Ferner sollte die Funktion P , die jedem
Ereignis seine ”Wahrscheinlichkeit” zuordnet, vernünftigen Regeln gehorchen, damit
sie mathematischen Methoden zugänglich wird.
Definition. Ist M eine Mengenalgebra von Ereignissen in Ω, so verstehen wir unter
einem W’maß eine Mengenfunktion P : M −→ [0, 1] mit
(A) P (A ∪ B) = P (A) + P (B), wenn A, B ∈ M , A ∩ B = ∅.
Die Wahrscheinlichkeit, dass mindestens eines von zwei nicht miteinander zu vereinbarenden Ereignissen eintritt, lässt sich additiv aus den Einzelwahrscheinlichkeiten
berechnen.
Aus (A) folgt leicht, dass
(K) P (Ac ) = 1 − P (A), für alle Ereignisse A ⊂ Ω, sowie
(K2) P (B \ A) = P (B) − P (A), wenn A ⊂ B.
Hier haben wir nämlich B = A ∪ (B \ A), also P (B) = P (A) + P (B \ A).
Wollen wir für 2 Ereignisse A, B ⊂ Ω die Wahrscheinlichkeit P (A ∪ B) berechnen,
dass A oder V B eintritt und setzen nicht mehr voraus, dass A und B unvereinbar
sind, so haben wir
(V) P (A ∪ B) = P (A) + P (B) − P (A ∩ B).
Dazu beachten wir, dass A∪B = (A\(A∩B)) ∪B, letztere Mengen sind disjunkt.
Also folgt nach (K2) auch P (A∪B) = P (A\(A∩B))+P (B) = P (A)−P (A∩B)+P (B)
6
KAPITEL 11. ELEMENTARE STOCHASTIK
(B.1) Wahrscheinlichkeitsverteilungen auf endlichen Ergebnisräumen
Angenommen, ein Ergebnisraum Ω habe nur endlich viele Elemente, etwa Ω =
{a1 , ..., an }.
Mit P(Ω) bezeichnen wir das System aller Teilmengen von Ω (auch ”Potenzmenge
von Ω genannt. Der Name rührt vielleicht daher, dass dann die Menge P(Ω) gerade
2n Elemente hat.
In diesem Fall ist auf M := P(Ω) eine Wahrscheinlichkeitsverteilung so zu definieren:
Ist p1 , ...., pn eine Sammlung positiver Zahlen mit p1 + p2 + ... + pn = 1, so
P ({aj }) =: pj , 1 ≤ j ≤ n
und
P (A) :=
X
pj
j:aj ∈A
Dann erfüllt die derart definierte Mengenfunktion die Forderungen an ein W’maß
.
Beispiel 1 . Angenommen, es sei Ω ein Ergebnisraum und A, B ⊂ Ω seien zwei
Ereignisse.
a) Angenommen weiter, A und B haben die W’keiten P (A) = 0.3, P (B) = 0.45,
und es sei P (A∪B) = 0.6. Was sind die W’keiten P (A∩B), sowie P ((A∪B)c ), P (Ac ∪
B c ) und P (Ac ∩ B). ?
b) Angenommen, es sei P (A ∩ B c ) = 0.3 und P (B) = 0.4. Mit welcher W’keit
tritt dann A ∪ B ein?
c) Sei Ω der Ereignisraum für ein Zufallsexperiment und A, B und C Ereignisse.
Können dann die folgenden Konstellationen von W’keiten für diese Ereignisse gelten?
• P (A) = 0.6, P (A ∩ B) = 0.2 und P (A ∩ B c ) = 0.5?
• P (A) = 0.6, P (B) = 0.4, P (A ∩ B) = 0 und P (A ∩ B ∩ C) = 0.1
• P (A ∪ B ∪ C) = 0.68, P (A ∩ B) = P (A ∩ C) = 1?
d) Ein (manipulierter) Würfel zeigt die Zahlen 1, 2, 3, 4 und 5 mit den W’keiten
und 61 . Mit welcher W’keit wird eine 6 geworfen?
1 1 1 1
, , ,
8 8 7 7
Lösung. a)
P (A ∩ B) = P (A) + P (B) − P (A ∪ B) = 0.3 + 0.45 − 0.6 = 0.15
11.1. DISKRETE WAHRSCHEINLICHKEITSVERTEILUNGEN
7
P ((A ∪ B)c ) = 1 − P (A ∪ B) = 0.4 und
P (Ac ∪ B c ) = P ((A ∩ B)c ) = 1 − P (A ∩ B) = 0.85
P (Ac ∩ B) = P (B) − P (A ∩ B) = 0.45 − 0.15 = 0.3
b) P (A ∪ B) = P (A) + P (B) − P (A ∩ B) = P (B) + P (A \ (A ∩ B)) = P (B) +
P (A ∩ B c ) = 0.4 + 0.3 = 0.7
c) Keine der 3 Konstellationen ist mit den Regel für das Rechnen mit W’keitsmaßen
vereinbar.
d) Es gilt P ({6}) = 1 − 81 − 81 − 71 − 17 −
1
6
=
25
84
= 0.2976.
Beispiel 2 . Gegeben sei das folgende Schaltbild aus 3 Glühlämpchen L1 , L2 , L3 .
L2
L1
K
L
3
Jedes Lämpchen brennt mit der W’keit 0.4 durch. Die W’keit, dass eines der
Lämpchen L2 oder L3 durchbrennt, sei 0.7 und angenommen, mit W’keit 0.95 brenne
wenigstens eines der 3 Lämpchen nicht durch.
Der Stromkreis ist nicht unterbrochen, wenn am Knoten K Strom fließt.
Mit welcher W’keit ist der Stromkreis unterbrochen? Dazu entwerfe man ein geeignetes mathematisches Modell: Man wähle einen angemessenen Ergebnisraum und
definiere die relevanten ”Ereignisse” dazu.
Lösung. Der passende Ergebnisraum ist Ω = {(x1 , x2 , x3 )| | xi ∈ {0, 1}, i = 1, 2, 3}.
Dabei bedeutet xj = 1, dass das Lämpchen Nr. j durchbrennt. Setzen wir dann
Aj = {(x1 , x2 , x3 )| xj = 1}, so ist das Ereignis ”Stromkreis unterbrochen” gerade
A1 ∪ (A2 ∩ A3 ).
8
KAPITEL 11. ELEMENTARE STOCHASTIK
Nun wissen wir, dass P (Aj ) = 0.4 für alle j ist. Ferner haben wir P (A2 ∪A3 ) = 0.7
und P (Ac1 ∪ Ac2 ∪ Ac3 ) = 0.95. Dann ist aber
P ( A1 ∪ (A2 ∩ A3 ) ) =
=
=
=
P (A1 ) + P (A2 ∩ A3 ) − P (A1 ∩ A2 ∩ A3 )
P (A1 ) + P (A2 ) + P (A3 ) − P (A2 ∪ A3 ) − P (A1 ∩ A2 ∩ A3 )
P (A1 ) + P (A2 ) + P (A3 ) − P (A2 ∪ A3 ) − 1 + P (Ac1 ∪ Ac2 ∪ Ac3 )
1.2 − 0.7 − 1 + 0.95 = 0.45
Kombinatorische Betrachtung
11.1.1 Satz Besteht eine Menge X aus n Elementen, so kann man diese auf n!
Weisen untereinander vertauschen
Beweis. Ist n = 2, so haben wir etwa X = {x1 , x2 }. Dann sind (x1 , x2 ) und (x2 , x1 )
die möglichen Vertauschungen.
Angenommen, wir hätten die Richtigkeit der Behauptung für jede Menge mit n
Elementen erkannt. Ist dann X = {x0 , x1 , ..., xn } eine Menge mit n + 1 Elementen,
so sei
Vk = {(x01 , ..., x0k−1 , x0 , x0k+1 , ..., x0n+1 ) | (x01 , ..., x0k−1 , x0k+1 , ..., x0n+1 ) Vertauschung
von (x1 , ..., xn )}
die Menge aller Vertauschungen der Elemente von X, bei denen x0 an die k.-te Stelle
rückt. Offenbar ist die Menge aller möglichen Vertauschungen von X die Vereinigung
aller Vk , das sind n+1 disjunkte Mengen. Jede von ihnen hat nach Induktionsannahme
n! Elemente. So kommen wir auf (n + 1) · n! = (n + 1)! möglichen Vertauschungen.
Relevant für die Abzählung der Gewinnchancen beim Lotto 6 aus 49 ist
11.1.2 Satz Ist n ∈ N0 und k ∈ {0, 1, 2, ..., n}, so gilt
a) Man kann auf n(n − 1) · ... · (n − k + 1) Weisen aus einer Urne mit n Kugeln k
Kugeln entnehmen, wenn man die Kugeln nicht wieder zurücklegt,
b) legt man jede Kugel wieder zurück, so gibt es nk Möglichkeiten
n
c) man kann auf
Weisen eine k-elementige Teilmenge aus einer n-elementigen
k
Menge X entnehmen.
Beweis. a) Ist X = {x1 , ..., xn } und wollen wir aus X eine k-elementige Stichprobe
(a1 , ..., ak ) entnehmen, so stehen uns für a1 exakt n Möglichkeiten zur Verfügung, für
a2 bleiben n − 1 Möglichkeiten, für a3 sind es noch n − 2, allgemein gibt es für a`
11.1. DISKRETE WAHRSCHEINLICHKEITSVERTEILUNGEN
9
exakt n − ` + 1 Möglichkeiten. So können wir n(n − 1) · ... · (n − k + 1) = k!
n
k
verschiedene Stichproben nehmen.
b) Klar.
c) Vertauschen wir die Elemente einer Stichprobe untereinander, so liefert das dieselbe Teilmenge {a1 , ..., ak }. Wir erhalten also die Anzahl der möglichen k-elementigen
Teilmengen von X, wenn wir die Anzahl der möglichen Stichproben durch die Anzahl
der Vertauschungsmöglichkeiten der Elemente für die Stichprobe teilen. So erhalten
wir die Behauptung.
Beispiele von Wahrscheinlichkeitsverteilungen
Die Laplace-Verteilung (Gleichverteilung)
Legen praktische Überlegungen nahe, jedem Einzelergebnis aj ∈ Ω die gleiche
Chance zuzugestehen, einzutreten, so wird die folgende Funktion als Wahrscheinlichkeitsmaß verwendet:
]A
.
P (A) :=
n
Insbesondere hat man jetzt: P ({aj }) = n1 .
Dieses Wahrscheinlichkeitsmaß wird Gleichverteilung (oder Laplaceverteilung) genannt.
In diesem Fall Wahrscheinlichkeiten auszurechnen wird möglich, wenn man die für
ein Ereignis A ⊂ Ω ”günstigen” Fälle abzählt. Mit kombinatorischem Kalkül kommen
wir also zum Ziel.
Beispiel. 1) Werfen zweier Würfel. Die Wahrscheinlichkeit, mindestens eine 8 zu
werfen, ist P (A) = 15/36 = 5/12. Denn das relevante Ereignis A ist
A := {(2, 6), (3, 5), (4, 4), (5, 3), (6, 2), (3, 6), (4, 5), (5, 4), (6, 3),
(4, 6), (6, 4) (5, 6), (6, 5), (6, 6)}
und hat 15 Elemente.
2) Beim Roulette setzt jemand auf ”Douze premier”. Er gewinnt mit Wahrscheinlichkeit 12/37.
3) Die Chance, beim Lotto 6 Richtige zu haben, ist gerade 1/ 49
. Denn der früher
6
eingeführte Ergebnisraum ist gerade
Ω = {A ∈ P({1, ..., 49}) : ](A) = 6}
und hat
49
6
= 13 983 816 Elemente.
10
KAPITEL 11. ELEMENTARE STOCHASTIK
Das Abzählen von günstigen Fällen ist nicht immer trivial. Wie muss vorgegangen
werden, wenn die Wahrscheinlichkeit bestimmt werden soll, mindestens 4 Richtige
getippt zu haben? Nehmen wir an, es seien k1 , ...., k6 die 6 gezogenen Lottozahlen.
Wir führen jetzt drei Ereignisse ein:
A4 := {S ∈ P(Ω) : S enthält genau 4 der Zahlen k1 , ..., k6 }
A5 := {S ∈ P(Ω) : S enthält genau 5 der Zahlen k1 , ..., k6 }
und
A6 = { {k1 , ..., k6 } }
Es gilt jetzt ](A4 ∪ A5 ∪ A6 ) = ]A4 + ]A5 + ]A6 .
Ferner ist ]A6 = 1, und
6
]A5 =
· 43 = 6 · 43 = 258
5
und
6
43
]A4 =
= 15 · 903 = 13545
4
2
Insgesamt also ](A4 ∪ A5 ∪ A6 ) = 13804. Somit wird
P (A4 ∪ A5 ∪ A6 ) = 13804/13 983 816 = 0.000 987 ≈ 1 : 1000
4) Man wirft k Würfel. Wie groß muss k sein, damit mit Wahrscheinlichkeit > 0.9
ein Würfel eine 6 zeigt?
Wir wählen hier Ω = {1, 2, 3, 4, 5, 6}k , also ist ]Ω = 6k . Das in Rede stehende
Ereignis A ist gerade darstellbar als A = B c (Komplement von B), wobei B :=
{1, 2, 3, 4, 5}k , also haben wir P (B) = (5/6)k und es soll P (B) < 0.1 werden (aus
10
ln 0.1
= lnln6/5
> 12.6 , somit muss k
(A) folgt (P (B) = 1 − P (A)). Das führt auf k > ln
5/6
mindestens gleich 13 werden.
Beispiel 3 . In einem Saal sei eine Anzahl von n Personen versammelt.
a) Mit welcher W’keit haben 2 von ihnen am gleichen Tag Geburtstag?
b) Wieviel Personen müssen es sein, damit diese W’keit größer als 0.5 wird?
Lösung. a) Da wir nach Geburtstagen fragen und das Jahr 365 Tage hat, arbeiten
wir dem Ergebnisraum
Ω = {(x1 , ...., xn ) | xj ∈ {1, 2, 3, 4, ..., 365}}
Ein Elementarereignis repräsentiert das Ergebnis, wenn man alle Personen nach ihrem
Geburtstag fragt. (Wir denken uns die Tage des Jahres durchnummeriert). Ist dann
11.1. DISKRETE WAHRSCHEINLICHKEITSVERTEILUNGEN
11
B das Ereignis, dass keine 2 Personen am selben Tag Geburtstag haben, so bedeutet
das
B = {(x1 , ..., xn ) | xi 6= xj , wenn i 6= j}
und gesucht ist P (B c ) = 1−P (B). Auf Ω muss die Laplaceverteilung benutzt werden,
da man nichts über die einzelnen Geburtstage weiß. Es ist |Ω| = 365n . Wir bestimmen
|B|.
Sei also (x1 , x2 , ..., xn ). Dann bestehen für x1 noch 365 Möglichkeiten, für x2 sind
es noch 364, für x3 sind es 363 Möglichkeiten. So fortfahrend sehen wir, dass für den
Geburtstag der Person Nr. k noch 365 − k + 1 Möglichkeiten bleiben. Da alle diese
Möglichkeiten unabhängig voneinander bestehen, haben wir
|B| = 365 · 364 · 363 · 362 · · · · · (365 − n + 1)
Das führt auf
P (B c ) = 1 −
n
Y
k−1
|B|
(1
−
=
1
−
)
365n
365
k=1
b) Je größer n wird, desto kleiner ist auch P (B).
Wir probieren einige Werte aus und finden
n = 10 P (B) = 0.88,
n = 15 P (B) = 0.747
n = 20 P (B) = 0.5885
n = 21 P (B) = 0.556
n = 22 P (B) = 0.524
n = 23 P (B) = 0.4927
Die W’keit, dass unter n Personen 2 am selben Tag Geburtstag haben, ist > 0.5,
wenn n ≥ 23.
Binomialverteilung
Diese Verteilung ist durch 2 Parameter n ∈ N und p ∈ (0, 1) gekennzeichnet und
auf den Teilmengen des Ergebnisraumes Ω = {0, 1, 2, 3, ..., n} definiert durch
n
P ({k}) :=
pk (1 − p)n−k
k
P
und P (A) := k∈A P ({k}). Man nennt die Binomialverteilung mit Parameter n und
p auch Bn,p -Verteilung.
Wo tritt diese Verteilung auf?
12
KAPITEL 11. ELEMENTARE STOCHASTIK
Angenommen, man führe ein Zufallsexperiment, das nur 2 Ausgänge a oder b haben kann, n-mal aus, wobei die Wiederholungen unabhängig voneinander sein sollen.
Ist p die Wahrscheinlichkeit
für das Eintreten von a bei einem Einzelexperiment, so
n
gibt wk :=
pk (1 − p)n−k die Wahrscheinlichkeit dafür an, dass a in der Serie
k
dieser n Experimente exakt k-mal auftritt. Denn zunächst kann man mit dem Ergebnisraum E := {(x1 , ...., xn ) | xk ∈ {a, b}, k = 1, ..., n} arbeiten. Man zählt dann
ab, wieviele (x1 , ..., xn ) gefunden werden können,
bei denen genau k Stellen a und an
n
den anderen Stellen b steht. Ihre Anzahl ist
, und die Wahrscheinlichkeit eines
k
jeden ist pk (1 − p)n−k .
Beispiel 4 . Eine falsche 20-Cent-Münze werde 10-mal hintereinander geworfen. Mit
welcher Wahrscheinlichkeit erscheint mindestens 3-mal öfter das Brandenburger Tor
als die Zahl, wenn ”Zahl” mit Wahrscheinlichkeit p = 25 eintritt?
Lösung. Der richtige Ergebnisraum ist Ω = {Z, B}10 und Z steht für ”Zahl”, B für
”Brandenburger Tor”. Als Ereignisse definieren wir Ej := {j − mal 00 Zahl00 }. Dann ist
das gesuchte Ereignis ”mindestens 3-mal öfter Brandenburger Tor als Zahl” gerade
A := E0 ∪ E1 ∪ E2 ∪ E3 . Es folgt wegen |Ω| = 210 = 1024:
3 X
2 3
10
( )k ( )10−k
P (A) =
k
5 5
k=0
2 3
2 3
2 3
3
= ( )10 + 10( )( )9 + 45( )2 ( )8 + 120( )3 ( )7
5
5 5
5 5
5 5
= 0.00604662 + 0.0403108 + 0.120932 + 0.214991
= 0.38228
Beispiel 5 . Die Leitung eines Teilnehmers zur Telefonauskunft sei bei durchschnittlich 60% seiner Anrufe besetzt. Mit welcher W’keit sind
• Bei 5 Versuchen alle erfolgreich?
• Bei 5 Anrufen wenigstens einer erfolgreich?
Wieviel Versuche muss der Teilnehmer machen um mit W’keit 0.95 wenigstens einen
erfolgreichen zu haben?
Lösung. Der Ansatz mit einem Bernoullischen Zufallsexperiment ist gerechtfertigt.
Mit W’keit
5
Pk :=
0.4k 0.65−k
k
11.1. DISKRETE WAHRSCHEINLICHKEITSVERTEILUNGEN
13
sind bei 5 Versuchen, die Telefonauskunft zu erreichen, k Versuche erfolgreich.
Die gesuchten W’keiten sind also P5 = 0.45 = 0.01 und 1 − P0 = 1 − 0.65 = 0.922.
Ist n die Zahl der Versuche, die nötig sind, damit mit W’keit 0.95 ein Versuch
Erfolg hat, so muss gelten
1 − P0 = 1 − (1 − p)n ≥ 0.95
also
(1 − p)n ≤ 0.05,
n ln (1 − p) ≤ −ln (20)
Das führt auf
ln (20)
> 5.86
−ln 0.6
Es braucht also mindestens 6 Versuche.
n≥
Hypergeometrische Verteilung
Bei Stichproben im Rahmen einer Qualitätskontrolle gewinnt die folgende Wahrscheinlichkeitsverteilung Bedeutung:
Angenommen, eine Lieferung von n Bauteilen enthalte d ≤ n defekte Bauteile.
Der Empfänger der Lieferung nimmt eine Stichprobe von s Bauteilen. Mit welcher
Wahrscheinlichkeit enthält die Stichprobe k defekte Bauteile?
Man arbeitet nun mit dem Ergebnisraum
Ω = {A ⊂ {1, ...., n} : ](A) = s}
Wir nummerieren die Bauteile so, dass die ersten d gerade die defekten sind und
setzen D := {1, ...., d}. Das Ereignis, k defekte Bauteile in der Stichprobe zu finden,
wird durch die Menge
K := {A1 ∪ A2 | A1 ⊂ D, A2 ⊂ {1, 2, ..., n} \ D, ](A1 ) = k, ](A2 ) = s − k}
beschrieben. Wir zählen ab, wieviele Elemente K hat und erhalten
d
n−d
]K =
.
k
s−k
So führt die Gleichverteilung auf Ω auf eine neue Verteilung auf X := {1, 2, ..., n},
nämlich
Hn,d,s ({k}) :=
d
k
n−d
s−k
n
s
14
KAPITEL 11. ELEMENTARE STOCHASTIK
und
Hn,d,s (A) =
X
Hn,d,s ({k}),
k:k∈A
für alle A ∈ P(X ).
(Hypergeometrische Verteilung mit Parameter n, d und s, wobei s ≤ n)
Dabei ist Hn,d,s ({k}) = 0, wenn k > min{d, s}.
Man beachte, dass
min{d,s} X
d
n−d
n
=
k
s−k
s
k=0
Denn setzen wir f (x) = (1 + x)d und g(x) = (1 + x)n−d , so liefert der Binomialsatz,
dass
d n−d X
X
n−d
d
i
f (x) =
x , g(x) =
xj
i
j
i=0
j=0
Ausmultiplizieren ergibt dann
n X
n
s=0
s
xs = (1 + x)n = f (x)g(x) =
n
X

min{d,s} X

s=0
k=0
d
k

n−d  s
x
s−k
Die Behauptung ergibt sich durch Koeffizientenvergleich.
Beispiel 6 . Ein Unternehmer bezieht von einer Firma gewisse Bauteile. Angenommen, man habe vertraglich vereinbart, dass eine Ausschussquote von 10% akzeptiert
wird. Zum Zweck der Überprüfung einer Lieferung von 50 Stück entnimmt der Unternehmer eine Stichprobe von 5 Teilen in der Absicht, die Lieferung abzulehnen, wenn
mehr als 1 defektes Teil in der Stichprobe vorkommt. Mit welcher Wahrscheinlichkeit
würde eine Lieferung mit 8 defekten Bauteilen abgelehnt?
Die Anzahl der defekten Bauteile ist verteilt nach H50,8,5 . Das zur Ablehnung
führende Ereignis ist also hier die Menge A := {0, 1}c . Nun gilt
42 42 8
8
+
850668 + 8 · 111930
1746108
H50,8,5 ({0, 1}) = 0 5 50 1 4 =
=
= 0.82
2118760
2118760
5
Also
P (A) = 1 − 0.82 = 0.18
Die Wahrscheinlichkeit, aufgrund der Stichprobe die Lieferung abzulehnen, ist nur
0.18.
11.1. DISKRETE WAHRSCHEINLICHKEITSVERTEILUNGEN
15
(C) Wahrscheinlichkeitsverteilungen auf abzählbaren Ergebnismengen
Man nennt eine Menge Ω abzählber, wenn man ihre Elemente aufzählen und jedem
eine Nummer erteilen kann. Man schreibt dann
Ω = {aj | j ∈ N}
Beispiele solcher Mengen sind etwa Ω = N, Ω = Z, Ω = Q. Nicht abzählbar dagegen
ist Ω = R oder Ω = (a, b).
Man definiert dann ein Wahrscheinlichkeitsmaß ähnlich
wie im Fall P
endlicher Ω.
P∞
Ist nämlich (pj )j eine Folge positiver Zahlen, so dass j=1 pj := limn→∞ nj=1 pj = 1,
so setzen wir wieder
P ({aj }) =: pj ,
j≥1
und
P (A) :=
X
pj
j:aj ∈A
für A ⊂ Ω.
Hier sind 2 Beispiele:
Geometrische Verteilung
Die geometrische Wahrscheinlichkeitsverteilung mit Parameter p ∈ (0, 1) ist definiert durch
P ({k}) := (1 − p)pk−1 .
Beispiel. Angenommen, eine Firma produziere Bauteile, wobei p der Anteil der
intakten Bauteile sei. Nun wird die Produktion geprüft. Dann ist P ({k}) die Wahrscheinlichkeit dafür, dass das k-te geprüfte Bauteil das erste ist, das nicht in Ordnung
ist.
Wir prüfen die Normierungsbedingung leicht nach:
∞
X
P ({k}) = (1 − p)
k=1
∞
X
pk−1 = 1
k=1
(geometrische Reihe)
Für ein Ereignis A ∈ P(N0 ) setzen wir
X
P (A) :=
P ({k})
k:k∈A
Poissonverteilung
16
KAPITEL 11. ELEMENTARE STOCHASTIK
Für einen Parameter λ > 0 sei
λk −λ
P ({k}) = e
k!
P∞ k
Dann ist wieder (Exponentialreihe k=0 λ /k! = eλ )
∞
X
P ({k}) = 1
k=0
Selten auftretende Ereignisse sind oftmals poissonverteilt.
Beispiele 1) Eine Bahnstrecke (100 km) wird auf Bruchstellen überprüft. Dann ist
die Anzahl der Bruchstellen poissonverteilt.
2) Jemand hat ermittelt (aufgrund von Angaben der preußischen Armee), wieviele
Soldaten in 10 Kavallerieregimentern während eines Zeitraumes von 20 Jahren an
den Folgen eines Pferdehuftritts gestorben sind. Es ergab sich in guter Näherung eine
Poissonverteilung mit λ = 0.61.
3) Die Anzahl der in einer Telefonzentrale während eines bestimmten Zeitraumes
eingehenden Anrufe ist poissonverteilt.
Beispiel 7 . Die Anzahl X der Tanker, die täglich eine Raffinerie anlaufen, sei poissonverteilt mit Parameter λ = 3. Die Raffinerie kann täglich bis zu 4 Tanker abfertigen. Weitere Tanker müssen abgewiesen werden und eine andere Raffinerie anlaufen.
(i) Was ist die wahrscheinlichste Anzahl von Tankern, die täglich versuchen, die
Raffinerie anzulaufen?
(ii) Mit welcher W’keit muss die Raffinerie an einem Tag mindestens einen Tanker
abweisen?
(iii) Wie groß muss die Kapazität der Raffinerie mindestens sein, damit an einem
Tag mit W’keit 0.9 kein Tanker abgewiesen werden muss?
Lösung. (i) Wir untersuchen die Zahlen ak = 3k /k!. Es gilt ak+1 /ak = 3/(k+1) < 1,
wenn k ≥ 3 und ak+1 /ak = 3/(k + 1) > 1, für k < 2. Damit ist ak ≤ a3 = 27/6 = 9/2.
Höchstwahrscheinlich laufen 3 Tanker die Raffinerie an.
(ii) Diese W’keit ist
P5 := e−3
∞
X
3k
k=5
k!
= 1 − e−3
4
X
3k
k=0
k!
=1−
131 −3
e = 0.185
8
(iii) Gesucht ist eine Zahl m (möglichst klein), so dass
−3
e
∞
m
X
X
3k
3k
−3
=1−e
≤ 0.1
k!
k!
k=m
k=0
11.1. DISKRETE WAHRSCHEINLICHKEITSVERTEILUNGEN
17
Ab m = 5 haben wir
e
−3
m
∞
X
X
3k
3k
−3
=1−e
≤ 0.09
k!
k!
k=0
k=m
Die Kapazität der Raffinerie sollt also mindestens 5 Schiffe/Tag sein.
Die Binomial-und die Poissonverteilung sind miteinander verwandt
11.1.3 Hilfssatz. Die Binomialverteilung mit Parametern n, p lässt sich näherungsweise durch eine Poissonverteilung mit Parameter λ = np beschreiben, wenn nur
n 1 und p 1:
λk −λ
P ({k}) ≈ e , wenn n − k 1
k!
Beweis. Dazu benutzen wir die Stirlingsche Formel:
√
n! ≈ 2πn(n/e)n
Dann wird für n − k 1:
n
k
pk (1 − p)n−k =
≈
≈
≈
≈
n! pk
(1 − p)n−k
(n − k)! k!
√
np
2πn
n n−k (np)k
p
)
(1 − )n−k
e−k (
n−k
k!
n
2π(n − k)
n−k
√
n −k
k
(np)k
np
√
e
1+
(1 − )n−k
n−k
k!
n
n−k
n−k k
√
λ
n −k
k
λ
√
e
1+
(1 − )n−k
n−k
k!
n
n−k
k
λ −λ
e
k!
denn unter den obigen Voraussetzungen wird
n−k
√
n −k
k
λ
√
e
1+
≈ 1, (1 − )n−k ≈ e−λ .
n−k
n
n−k
18
KAPITEL 11. ELEMENTARE STOCHASTIK
11.2
Allgemeine Wahrscheinlichkeitsräume
Definition. Es sei Ω irgendeine nichtleere Menge. Dann nennen wir ein System A von
Teilmengen von Ω eine σ-Algebra, wenn gilt
σ1): Ω, ∅ ∈ A,
σ2): Ist A ∈ A, so auch Ac ∈ A,
σ3): Sind Aj , j = 1, 2, 3, ... Elemente von A, so auch ∪∞
j=1 Aj ∈ A.
Beipiele. a) P(Ω) und {∅, Ω} sind σ-Algebren.
b) Der Durchschnitt zweier, endlich vieler oder auch beliebig vieler σ-Algebren ist
wieder eine σ-Algebra.
c) Sei E ⊂ P(Ω) beliebig. Dann ist der Durchschnitt A(E) aller E enthaltenden
σ-Algebren eine σ-Algebra, nämlich die kleinste solche σ-Algebra. Man nennt sie auch
die von E erzeugte σ-Algebra.
Sehr wichtig wird für uns das nächste Beispiel
Definition. Ist Ω = R, und E die Menge aller Intervalle in R, so heißt B1 := A(E)
auch die Borelsche σ-Algebra. Die Mengen, die zur ihr gehören, heißen Borelmengen.
Wahrscheinlichkeitsverteilungen werden in mathematisch fundierter Weise durch
folgende Definition erfasst:
Definition. Ist Ω eine Menge und A eine σ-Algebra von Teilmengen von Ω, so
nennt man eine Funktion P : A −→ [0, 1] ein Wahrscheinlichkeitsmaß (kurz W’maß),
wenn gilt
(S) P (Ω) = 1, P (∅) = 0
(A) Sind A1 , A2 , A3 , ... ∈ A paarweise disjunkt, so gilt
P
∪∞
j=1 Aj
=
∞
X
P (Aj )
j=1
Das Tripel (Ω, A, P ) wird als Wahrscheinlichkeitsraum bezeichnet.
In den Fällen, in denen Ω abzählbar ist, kann man stets A = P(Ω) wählen! Die
Definition der Wahrscheinlichkeit sieht im Falle eines überabzählbaren Ergebnisraumes Ω also nicht vor, dass jeder Teilmenge von Ω eine Wahrscheinlichkeit zugewiesen
wird, sondern nur den zu A gehörenden Mengen. Diese Einschränkung ist nötig wegen
der Eigenschaft (A), die man von einem Wahrscheinlichkeitsmaß verlangen muss, um
analytische Methoden zur Verfügung zu haben. Eine Funktion P mit Eigenschaft (A)
kann im Allgemeinen nicht mehr auf ganz P(Ω) definiert werden, wenn etwa Ω = R
zugelassen wird!
Hier haben wir ein paar Regeln, denen ein W’maß gehorcht:
11.2. ALLGEMEINE WAHRSCHEINLICHKEITSRÄUME
19
11.2.1 Hilfssatz.Ist Ω irgendein Ergebnisraum und A eine σ-Algebra, so gilt für
jedes W’maß P auf A:
a) P (A1 ∪ A2 ∪ ... ∪ Ak ) = P (A1 ) + P (A2 ) + ... + P (Ak ), wenn A1 , ..., Ak ∈ A
paarweise disjunkt sind.
b) P (Ac ) = 1 − P (A), wenn A ∈ A.
c) P (A ∪ B) = P (A) + P (B) − P (A ∩ B), wenn A, B ∈ A
Beweis. a) klar nach (A). Denn man wähle Ak+1 = Ak+2 = ... = ∅ und benutze
P (∅) = 0.
b) Folgt aus A ∪ Ac = Ω und (S).
c) Schreibe A1 = A ∩ B und A ∪ B = (A \ A1 ) ∪ B. Letztere beiden Mengen sind
disjunkt. Es folgt P (A ∪ B) = P (A \ A1 ) + P (B), und weiter P (A \ A1 ) + P (A1 ) =
P ((A \ A1 ) ∪ A1 ) = P (A), also P (A \ A1 ) = P (A) − P (A1 ) = P (A) − P (A ∩ B).
Wahrscheinlichkeitsverteilungen auf Ω = R
Zunächst definieren wir die Werte von Wahrscheinlichkeitsmaßen auf Intervallen.
Ist f : R −→ [0, ∞) stückweise stetig (d.h.: f hat nur endlich viele Unstetigkeitsstellen a0 < a1 < ... < aN und f |[ak , ak+1 ] ist stetig für alle k = 0, ..., N − 1 und
Z T
Z ∞
Rt
f (x)dx = 1), so setzen wir F (t) := −∞ f (x)dx. Dann lehrt
f (x)dx := lim
−∞
T →∞
−T
ein Satz aus der Wahrscheinlichkeitstheorie, dass es genau ein Wahrscheinlichkeitsmaß
P auf B1 gibt mit
Z
b
P ([a, b)) =
f (x)dx,
a<b
a
Wir nennen die Funktion f die Wahrscheinlichkeitsdichtefunktion zu P .
Hier sind wichtige Beispiele:
Normalverteilung N (µ, σ) mit Parameter µ und σ:
Seien µ ∈ R und σ > 0 fest. Als Wahrscheinlichkeitsdichtefunktion wählen wir
(x − µ)2
1
fµ,σ (x) := √ exp −
2σ 2
σ 2π
Für a < b setzen wir dann
Z
P ([a, b]) :=
b
fµ,σ (x)dx
a
Ist eine Messgröße X nach N (µ, σ) verteilt, d.h., ist
Z b
1
(x − µ)2
P (a ≤ X ≤ b) := √
exp −
dx
2σ 2
σ 2π a
20
KAPITEL 11. ELEMENTARE STOCHASTIK
nach N (0, 1) verteilt, denn
Z b
1
(x − µ)2
√
dx
exp −
2σ 2
σ 2π a
Z b−µ
σ
1
y2
√
exp −
dx
2
2π a−µ
σ
b−µ
a−µ
≤Y ≤
)
P(
σ
σ
b−µ
a−µ
Erf (
) − Erf (
)
σ
σ
so ist die verwandte Messgröße Y :=
P (a ≤ X ≤ b) =
=
=
=
X−µ
σ
wobei Erf die Funktion
1
Erf (t) := √
2π
Z
t
e−x
2 /2
dx
−∞
bedeutet und Fehlerfunktion genannt wird. Ihre Werte sind tabelliert.
Es genügt, die Werte Erf (t) für positive t zu kennen, denn es ist
Erf (−t) = 1 − Erf (t)
Beispiel. Angenommen, eine Firma K fertige Kondensatoren, deren Kapazität
normalverteilt sei mit Parametern µ = 100 und σ = 3. Ein Abnehmer benötigt
Kondensatoren mit einer Kapazität X ∈ [95, 105]. Dann gilt für Y := X−100
3
P (95 ≤ X ≤ 105) =
=
=
=
P (−1.667 ≤ Y ≤ 1.667)
Erf (1.667) − Erf (−1.667)
2Erf (1.667) − 1
0.904
Die Exponentialverteilung: Ist λ > 0, so setzen wir fλ (x) = λe−λx , wenn x ≥ 0
und fλ (x) = 0, wenn x < 0. und
P ((a, b]) := e−λa − e−λb ,
für 0 < a < b
Beispiel. Die Lebensdauer X einer Leuchtstoffröhre sei exponentialverteilt. Angenommen, es sei λ = 10−5 . Die Wahrscheinlichkeit, dass diese Röhre erst nach 12000
Betriebsstunden ausfällt, ist dann
P (X ≥ 12000) = 1 − P (0 ≤ X ≤ 12000)
= e−0.12 = 0.88
11.2. ALLGEMEINE WAHRSCHEINLICHKEITSRÄUME
21
Die Weibullverteilung ist nach dem schwedischen Ingenieur Weibull benannt,
der Ende der 40ger Jahre bei Zuverlässigkeitsuntersuchungen herausfand,dass die
zufällige Lebensdauer X von Verschleißteilen einer Verteilung vom folgenden Typ
(mit positiven θ, β) unterliegt:
t β
P (0 ≤ X ≤ t) = 1 − exp −( ) , t ≥ 0
θ
Beispiel. Angenommen, jemand habe neue Halogenscheinwerfer entwickelt und deren Lebensdauer sei weibullverteilt mit β = 1.8 und ”charakteristischer Lebensdauer”
θ = 1100h. Dann erreicht ein Scheinwerfer mit W’keit
700 1.8
p = exp −(
)
= 0, 642 ≈ 62, 4%
1100
eine Lebensdauer von mindestens 700h.
Die Chi-Quadrat-Verteilung. Für n ∈ N setzen wir auf R:
gn (x) := √
1
xn/2 −1 e−x/2 , wenn x ≥ 0
n
2 an
und gn (x) = 0 wenn x <
0. Dabei ist an = ( n2 − 1)!, wenn n gerade ist und an =
√
1 · 3 · 5 · ... · (n − 2)2(n−1)/2 π, für ungerades n. Als χ2n -Verteilung bezeichnen wir dann
das durch
Z
β
χ2n ((α, β]) =
gn (x)dx
α
gegebene Wahrscheinlichkeitsmaß.
Rechteckverteilung. Ist a < b, so setzen wir f (t) :=
f (t) = 0 sonst. Dann definiert
Z β
P ((α, β]) :=
f (t)dt
1
,
b−a
wenn a ≤ t ≤ b und
α
ein W’maß. Wegen der Form der Wahrscheinlichkeitsdichtefunktion f spricht man
von einer Rechteckverteilung.
11.2.1
Bedingte Wahrscheinlichkeiten
Angenommen, ein Zufallsexperiment werde im mathematischen Modell durch den
W’keitsraum (Ω, A, P ) beschrieben. Manchmal kommt es vor, dass das Eintreten
22
KAPITEL 11. ELEMENTARE STOCHASTIK
eines Ereignisses B ∈ A die W’keit eines anderen Ereignisses A ∈ A beeinflusst. Ist
P (B) > 0, so definieren wir die bedingte Wahrscheinlichkeit für das Eintreten von A
unter der Bedingung, es trete B ein, als
P (A|B) :=
P (A ∩ B)
P (B)
Dann ist also stets P (B|B) = 1. Weiter wird
P (A ∩ B) + P (Ac ∩ B) = P (B) ,
P (Ac |B) = 1 − P (A|B)
Dazu sehen wir uns Beispiele an:
Beispiel 8 . Auf einer Bundesstraße der Gesamtlänge von 500 km ereignen sich je
100 km und Tag durchschnittlich 0.05 Unfälle.
(i) Mit welcher W’keit ereignet sich auf der Bundesstraße je Tag mindestens 1
Unfall?
(ii) Mit welcher W’keit ereignen sich auf der Bundesstraße je Tag genau 3 Unfälle
unter der Bedingung, dass mindestens einer eintritt?
Lösung. Dazu gehen wir von einer Poissonverteilung für die Anzahl der Unfälle
pro Tag aus. Die W’keit, dass sich k Unfälle auf der Straße ereignen, ist dann
P ({k}) =
λk −λ
e
k!
mit λ = 0.25.
(i) Mit W’keit 1 − P ({0}) = 1 − e−λ = 0.221 passiert jeden Tag mindestens ein
Unfall.
(ii) Sei A das Ereignis ”genau 3 Unfälle” und B das Ereignis ”mindestens 1 Unfall”.
Dann ist gesucht
P (A ∩ B)
P (A|B) =
P (B)
So finden wir
P (A|B) =
P (A)
λ3 e−λ
=
= 0.015
P (B)
6(1 − e−λ )
11.2. ALLGEMEINE WAHRSCHEINLICHKEITSRÄUME
23
Beispiel 9 Angenommen, eine Fabrik fertigt gewisse Schrauben mit Hilfe von 3 Maschinen, die wir M1 , M2 , M3 nennen. Dabei ist bekannt, dass Maschine Mj einen
Produktionsanteil pj und eine Ausschussquote qj hat.
1. Frage: Mit welcher W’keit ist dann eine zufällig der Produktion entnommene
Schraube defekt?
Man wird nun mit folgenden Ereignissen arbeiten wollen: Bj bedeutet das Ereignis, dass die entnommene Schraube von Mj hergestellt ist, und A bedeute das
Ereignis, dass die Schraube defekt ist. Hier wird A durch Bj beeinflusst und es gilt
für die W’keit, dass eine von Mj hergestellte Schraube defekt ist: P (A|Bj ) = qj , für
j = 1, 2, 3. Ferner kennt man die W’keit P (Bj ), dass die Schraube von Mj stammt:
P (Bj ) = pj . Da nun die Schraube in jedem Fall von einer der 3 Maschinen M1 , M2 , M3
stammen muss, wird man die W’keit, dass sie defekt ist, mit
P (A) = P (A|B1 )P (B1 ) + P (A|B2 )P (B2 ) + P (A|B3 )P (B3 ) = p1 q1 + p2 q2 + p3 q3
beziffern.
(Beispiel: Wenn M1 den Produktionsanteil 25% und die Fehlerquote 5% und entsprechend M2 die Werte 40% und 2% aufweist und für M3 die Werte 35% und 4%
gelten, so wird
P (A) = 0.05 · 0.25 + 0.02 · 0.4 + 0.04 · 0.35 = 0.0345
also im Schnitt 3.5% Fehlerquote)
2. Frage. Angenommen, man entnimmt eine Schraube, und diese sei defekt. Mit
welcher W’keit stammt sie von der Maschine M1 ?
Zur Beantwortung dieser Frage rechnen wir aus
P (A|B1 )P (B1 )
P (A ∩ B1 )
=
P (A)
P (A)
p1 q 1
=
p1 q 1 + p2 q2 + p3 q3
P (B1 |A) =
Im obigen Zahlenbeispiel ist das
P (B1 |A) =
0.0125
= 0.362
0.0345
Beispiel 10 Angenommen, man wendet zur Prüfung von Schaltkreisen ein bestimmtes Verfahren an. Die Erfahrung lehrt, dass dieses mit W’keit 0.9 keinen Fehler anzeigt,
wenn der Schaltkreis fehlerfrei ist und mit W’keit 0.95 einen Fehler anzeigt, wenn der
Schaltkreis fehlerhaft ist. Die W’keit, dass ein Schaltkreis defekt ist, sei 0.04.
24
KAPITEL 11. ELEMENTARE STOCHASTIK
1. Frage Mit welcher W’keit zeigt das Verfahren einen defekten Schaltkreis an?
2. Frage: Mit welcher W’keit ist ein Schaltkreis wirklich defekt, wenn das Prüfverfahren einen Fehler behauptet hat?
Wieder arbeitet man mit 2 Ereignissen die einander bedingen: A bedeute: Das
Prüfverfahren zeigt einen Fehler an. Das Ereignis B bestehe darin, dass der Schaltkreis
einen Fehler hat.
Man kennt die ”bedingte W’keit ” P (A|B), dass berechtigterweise der Schaltkreis
als fehlerhaft eingestuft wird: P (A|B) = 0.95. Ebenso hat man P (A|B c ) = 0.1 als die
W’keit, dass fälschlicherweise ein Fehler angezeigt wird. Man wird dem Ereignis, dass
ein Fehler angezeigt wird, wieder das gewichtete Mittel der W’keiten, also
P (A) = P (A|B)P (B) + P (A|B c )P (B c ) = 0.95 · 0.04 + 0.1 · 0.96 = 0.134
als Eintretensw’keit zuweisen.
Zur 2. Frage: Es ist
P (B|A) =
P (A|B)P (B)
0.95 · 0.04
P (A ∩ B)
=
=
= 0.283
P (A)
P (A)
0.134
Das bedeutet: Nur etwa jeder 4. als defekt angezeigte Schaltkreis ist auch wirklich
defekt. Das Ergebnis kann auf die kleine Zahl der defekten Schaltkreise zurückgeführt
werden und zeigt an, dass das Prüfverfahren ”übervorsichtig” genannt werden kann.
Auf der anderen Seite ist die W’keit, dass ein fehlerfrei gemeldeter Schaltkreis auch
wirklich fehlerfrei ist:
P (B c |Ac ) =
P (Ac |B c )P (B c )
0.9 · 0.96
P (B c ∩ Ac )
=
=
= 0.997
1 − P (A)
1 − P (A)
1 − 0.134
was für die Verlässlichkeit des Verfahrens spricht.
Vom folgenden Satz haben wir bei den Beispielen schon Gebrauch gemacht:
11.2.2 Hilfssatz. (Formel von Bayes) Sind B1 , ..., Bn ∈ A Ereignisse, welche sich
paarweise ausschließen, also Bi ∩ Bj = ∅ für i =
6 j, so dass aber Ω = B1 ∪ ... ∪ Bn , so
gilt für jedes weitere Ereignis A ∈ A:
P (A) = P (A|B1 )P (B1 ) + ... + P (A|Bn )P (Bn )
Ferner ist
P (Bj |A) =
P (A|Bj )P (Bj )
P (A|B1 )P (B1 ) + ... + P (A|Bn )P (Bn )
11.2. ALLGEMEINE WAHRSCHEINLICHKEITSRÄUME
25
Beweis. Denn es ist
P (A|B1 )P (B1 ) + ... + P (A|Bn )P (Bn ) = P (A ∩ B1 ) + ... + P (A ∩ Bn )
= P (A ∩ (B1 ∪ +... + Bn )) = P (A)
[a,b))= Die 2. Formel folgt aus dieser und der Definition von P (Bj |A):
P (Bj |A) =
P (A|Bj )P (Bj )
P (A ∩ Bj )
=
P (A)
P (A)
11.2.2
Stochastische Unabhängigkeit
Definition. Ist (Ω, A, P ) ein Wahrscheinlichkeitsraum, so nennen wir 2 Ereignisse
B1 , B2 ∈ A (stochastisch) unabhängig, wenn
P (B1 |B2 ) = P (B1 ), P (B2 |B1 ) = P (B2 )
also
P (B1 ∩ B2 ) = P (B1 )P (B2 )
gilt.
Dieser Begriff muss durch induktive Definition für endlich viele Ereignisse B1 , ..., Br ∈
A erklärt werden, nämlich: Die Ereignisse B1 , ..., Br sind stochastisch unabhängig,
wenn für jedes k < r irgendwelche k der Ereignisse B1 , ..., Br stochastisch unabhängig
sind und weiter P (B1 ∩ ... ∩ Br ) = P (B1 ) · ... · P (Br ) gilt.
Beispiel. a) Sollen 3 Ereignisse B1 , B2 , B3 stochastisch unabhängig sein, so muss
geprüft werden, ob
P (B1 ∩ B2 ) = P (B1 )P (B2 ), P (B1 ∩ B3 ) = P (B1 )P (B3 ), P (B2 ∩ B3 ) = P (B2 )P (B3 )
und
P (B1 ∩ B2 ∩ B3 ) = P (B1 )P (B2 )P (B3 )
gilt.
b) Angenommen, es werde mit 2 Würfeln gewürfelt. Dabei sei B1 das Ereignis,
dass die Gesamtaugenzahl ≥ 8 ist, B2 bedeute das Ereignis, sie sei gerade und B3 sei
das Ereignis, sie sei 10 oder 12. Dann haben wir folgendes
P (B1 ) =
5
1+2+3+4+5
= ,
36
12
P (B2 ) =
1+3+5+5+3+1
1
= ,
36
2
P (B3 ) =
1
9
26
KAPITEL 11. ELEMENTARE STOCHASTIK
1
5
1+3+5
= =
6
= P (B1 )P (B2 )
36
4
24
1
P (B1 ∩ B3 ) = P (B3 ) = 6= P (B1 )P (B3 )
9
1
P (B2 ∩ B3 ) = P (B3 ) = 6= P (B2 )P (B3 )
9
Also sind keine 2 der 3 Mengen B1 , B2 und B3 stochastisch unabhängig.
P (B1 ∩ B2 ) =
11.3
Erwartungswert und Varianz bei Zufallsvariablen
Waren wir davon ausgegangen, dass eine Zufallsgröße jeden Wert mit einer gewissen Wahrscheinlichkeit annimmt, so liegt es nahe, ihr einen geeigneten gewichteten
Mittelwert zuzuweisen.
Definition. Angenommen, es sei X eine reelle Zufallsvariable mit Wertemenge Ω,
und eine σ-Algebra A über Ω, auf der eine W’verteilung P X definiert sein soll. Dann
definieren wir den Erwartungswert E (X) wie folgt:
P
X
1) Wenn Ω = {aj : j ∈ N0 } diskret ist und die Reihe ∞
j=0 |aj |P ({aj }) < ∞ :=
Pm
limm→∞ j=0 |aj | P X ({aj }), so sei
E (X) =
∞
X
X
aj P ({aj }) := lim
m→∞
j=0
Rb
a
m
X
aj P X ({aj })
j=0
X
2) Wenn X = R und eine stetige Funktion g : R −→ R+
0 mit P ((a, b]) =
g(t)dt existiert, so setzen wir
Z ∞
E (X) =
xg(x)dx,
−∞
sofern das Integral
R∞
−∞
|x|g(x)dx := limM −→∞
RM
−M
|x|g(x)dx endlich ist.
Ist für die Zufallsgröße X auch E (X 2 ) endlich, so setzen wir
V (X) := E (X 2 ) − (E (X))2
Eine gleichwertige Beschreibung dieser ”Varianz” genannten Größe ist
V (X) = E ((X − E (X) )2 ).
11.3. ERWARTUNGSWERT UND VARIANZ
27
Für die wichtigen Verteilungen können wir Erwartungswert und Varianz ausrechnen.
Beispiele. a) Laplaceverteilung auf Ω = {a1 , ...., an }. Nun ist
n
X
n
1X
aj
E (X) =
aj P ({aj }) =
n
j=1
j=1
X
und
n
1
1X 2
aj − 2
V (X) =
n j=1
n
n
X
j=1
!2
aj
=
1 X
(aν − a` )2
n2 ν<`
b) Bernoulliverteilung auf Ω = {0, .., n} mit Parametern p ∈ (0, 1) und n ∈ Z+ .
Nun ist
E (X) =
=
=
=
n
X
n
n
X
kP ({k}) =
k
pk (1 − p)n−k
k
k=1
k=1
n X
n − 1 k−1
np
p (1 − p)n−k
k
−
1
k=1
n−1
X n − 1
np
pl (1 − p)n−1−l
l
l=0
np
X
und zur Berechnung der Varianz:
E (X ) =
2
n
X
k2
k=1
n−1
X
n
k
pk (1 − p)n−k
n−1 l
= np
(l + 1)
p (1 − p)n−1−l
l
l=0
n−1
n−1 X n − 1
X
n−1 l
l
n−1−l
= np
l
p (1 − p)
+np
p (1 − p)n−1−l
l
l
|l=1
{z
}
|l=0
{z
}
=(n−1)p
=1
= np(n − 1)p + np
= (np)2 − np2 + np
Es folgt
V (X) = (np)2 − np2 + np − (np)2 = np(1 − p)
28
KAPITEL 11. ELEMENTARE STOCHASTIK
c) Poissonverteilung. Jetzt wird Ω = N0 und daher
E (X) =
∞
X
k=1
−λ
e
∞
X
λk−1
λk
=λ
=λ
e−λ
k
k!
(k
−
1)!
k=1
Ähnlich errechnet man
E (X 2 ) = λ2 + λ, also V (X) = λ
d) Hypergeometrische Verteilung
mit
Parametern n, d und s. Kürzen wir ab: ν =
n−1
s n
min{s, d}, so gilt wegen n s = s−1 :
ν
n
X
d
n−d
k
E (X) =
k
s−k
s
k=1
ν
X d − 1 n − 1 − (d − 1) = d
k−1
(s − 1) − (k − 1)
k=1
ν−1 X
d−1
n − 1 − (d − 1)
= d
l
(s − 1) − l
l=0
n−1
ds n = d
=
s−1
n s
also E (X) = ds/n.
Der Erwartungswert für X 2 wird ähnlich berechnet
n
s
E (X ) =
2
=
=
=
=
ν
X
d
n−d
k
k
s−k
k=1
ν
X
d−1
n − 1 − (d − 1)
d
k
k−1
(s − 1) − (k − 1)
k=1
ν−1 ν−1 X
X
d−1
n − 1 − (d − 1)
n − 1 − (d − 1)
d−1
d
l
+d
l
(s
−
1)
−
l
l
(s − 1) − l
l=1
|l=0
{z
}
s n
=n
(s)
ν−1
X d−2
s n
n − 2 − (d − 2)
d(d − 1)
l
+d
n s
l−1
(s − 2) − l
{z
}
|l=1
s(s−1) n
=( n−2
=
s−2 ) n(n−1) ( s )
s(s − 1)
ds n d(d − 1)
+
n(n − 1)
n
s
2
11.3. ERWARTUNGSWERT UND VARIANZ
29
Es folgt
V (X) = E (X 2 ) − (E (X))2 =
e) Normalverteilung. Nun ist g(t) =
E (X) =
Z
√1
σ 2π
ds
(n − d)(n − s)
− 1)
n2 (n
exp(− (x−µ)2 /2σ 2 ). Wir erhalten leicht:
∞
tg(t)dt
−∞
Z ∞
Z
∞
g(t)dt +
(t − µ)g(t)dt
−∞
| {z }
=1
Z ∞
1
√
x exp(− x2 /2σ 2 )dx
= µ+
σ 2π −∞
|
{z
}
= µ
−∞
=0
= µ
und
V (X) =
Z
∞
(t − µ)2 g(t)dt
−∞
Z ∞ 2
σ2
1
x
= √
exp(− x2 /2σ 2 ) dx
σ
2π −∞ σ
2 Z ∞
σ
= √
x2 exp(− x2 /2)dx
2π −∞
= σ2
√
denn das Integral ist gerade = 2π. Dazu beachten wir nur, dass
Z
M
2
2
x exp(− x /2)dx
−M
Z
M
(−x) · (−x exp(− x2 /2) )dx
−M
Z M
M
2
= (−x) · exp(− x /2)
+
exp(− x2 /2)dx
−M
−M
Z ∞
√
exp(− x2 /2)dx = 2π (M → ∞)
−→
=
−∞
Der Erwartungswert ist linear:
30
KAPITEL 11. ELEMENTARE STOCHASTIK
11.3.1 Hilfssatz. Sind X und Y Zufallsvariable mit Ergebnisraum Ω ⊂ R, so gilt
a) E (X + aY ) = E (X) + aE (Y )
a’) E (aX + b) = aE (X) + b b)V (aX + b) = a2 V (X), wenn a 6= 0, b ∈ R, und
c)
!
!
X − E (X)
X − E (X)
p
p
= 0, V
= 1.
E
V (X)
V (X)
Beweis. Wir zeigen (a) für diskrete X und Y . Es gilt P (X +Y = z) =
X
P (X =
x+y=z
x, Y = y). Also
E (X + Y ) =
X
zP (X + Y = z)
z
=
X X
z
(x + y)P (X = x, Y = y)
x+y=z
!
=
X
=
X
x
x
x
X
P (X = x, Y = y)
y
P (X = x) +
!
+
X
y
X
y
X
P (X = x, Y = y)
x
yP (Y = y) = E (X) + E (Y )
y
Analog zeigt man E (aX) = aE (X). Daraus folgt (a). (a’) ist ein Spezialfall davon
(Y = 1).
Zu (b) (aX + b)2 = a2 X 2 + b2 + 2abX, also V (aX + b) = a2 E (X 2 ) + 2abE (X) + b2 ,
da auch E (aX + b)2 = a2 E (X)2 + 2abE (X) + b2 . Die Differenzbildung liefert (b). (c)
ist nun klar.
Es ist wichtig zu wissen, wie man die Varianz einer Summe von endlich vielen
Zufallsvariablen berechnen kann. Voraussetzung ist aber hierfür die Unabhängigkeit
dieser Zufallsvariablen. Damit meinen wir folgendes:
Definition. Angenommen, es seien X1 , X2 , ..., Xn Messgrößen mit Ergebnisraum
Ω ⊂ R, welche derselben Verteilung P : A −→ [0, 1] unterliegen, es gebe also ein
W’maß P auf einer σ-Algebra A über Ω, so dass die W’keit, dass Xj Werte in B ∈ A,
unabhängig von j durch P (B) gegeben ist.
Dann nennen wir X1 , ..., Xn ( stochastisch) unabhängig, wenn für irgendwelche
Mengen B1 , B2 , ..., Bn ∈ A die Ereignisse {X1 ∈ B1 }, ...., {Xn ∈ Bn } stochastisch
unabhängig sind, d.h., wenn für alle 1 ≤ i1 < i2 < ... < ik ≤ n und k ≤ n gilt
P ({Xi1 ∈ Bi1 , Xi2 ∈ Bi2 , ..., Xik ∈ Bik }) = P (Xi1 ∈ Bi1 ) · ... · P (Xik ∈ Bik )
gilt.
11.3. ERWARTUNGSWERT UND VARIANZ
31
Beispiel. a) Wiederholen wir eine Messung n-mal, und ist Xj das Ergebnis der
j-ten Messung, so sind X1 , ..., Xn unabhängig.
b) Würfeln wir n-mal, so sind die Resultate der Einzelwürfe unabhängig.
Damit kann man folgendes zeigen:
11.3.2 Satz. Sind X, Y zwei unabhängige Zufallsvariablen, so ist
a)
E (XY ) = E (X)E (Y )
b)
E ( (X − E (X) )( (Y − E (Y ) ) = 0
Beweis. Wir beweisen das nur für den Fall, dass Ω abzählbar ist. Ist also Ω =
{tj |j ∈ N}, so kann XY nur Werte der Form ti tj annehmen. Wir erhalten daher
E (XY ) =
X
ti tj P (X = ti , Y = tj )
i,j
=
X
=
X
ti tj P (X = ti ) P (Y = tj )
i,j
ti P (X = ti )
i
X
tj P (Y = tj )
j
= E (X)E (Y )
b) folgt leicht aus a):
E ( (X − E (X) )( (Y − E (Y ) ) = E (XY − XE (Y ) − Y E (X) + E (X)E (Y ) )
= E (X)E (Y ) − 2E (X)E (Y ) + E (X)E (Y ) = 0
11.3.3 Folgerung. Sind endlich viele Zufallsvariablen X1 , ..., Xn unabhängig und
haben endliche Varianz, so ist
a)
V (X1 + ... + Xn ) = V (X1 ) + · · · + V (Xn )
Insbesondere gilt, wenn alle Xj identisch verteilt sind und wir mit X das arithmetische Mittel von X1 , ..., Xn bezeichnen, also X = n1 (X1 + ... + Xn ):
b)
E (X) = µ := E (X1 )
V (X) =
1
V (X1 )
n
32
KAPITEL 11. ELEMENTARE STOCHASTIK
c) Der Erwartungswert von
n
s(X1 , ..., Xn )2 :=
1 X
( Xj − X ) 2
n − 1 j=1
ist gerade V (X1 ).
Beweis. Zu a) Mit dem Satz erhalten wir:
E ( (X1 + ... + Xn ) ) =
2
n
X
E (Xi Xj )
i,j=1
=
=
n
X
E (Xi2 ) +
i=1
i6=j
n
X
n
X
E (Xi2 ) −
i=1
=
X
n
X
=
(E (Xi ) )2 +
i=1
V (Xi ) +
i=1
n
X
E (Xi Xj )
n
X
n
X
E (Xi )E (Xj )
i,j=1
!2
E (Xi )
i=1
V (Xi ) +
i=1
E
n
X
! !2
Xi
i=1
P
2
Subtrahieren wir auf beiden Seiten noch (E ( ni=1 Xi ) ) , so erscheint links die
Varianz von X1 + ... + Xn .
Zu b) Klar.
Zu c) Es gilt zunächst:
!
n
n
X
n−1
1
1X 2
2
2
Xj − X
s(X1 , ..., Xn )2 =
Xj2 − 2X Xj + X
=
n
n j=1
n j=1
und ferner
n
1 X
E (X ) =
E (Xi Xj )
n2 i,j=1
2
n
n
1 X
1 X
2
=
E (Xi ) + 2
E (Xi )E (Xj )
n2 i=1
n i6=j
n
n
1 X
1 X
2
=
E (X1 ) + 2
( E (X1 ) )2
n2 i=1
n i6=j
=
1
n−1
E (X12 ) +
( E (X1 ) )2
n
n
11.3. ERWARTUNGSWERT UND VARIANZ
33
und damit
n
1X
n−1
E (s(X1 , ..., Xn )2 ) =
E (Xj2 ) − E (X)2
n
n j=1
n−1
1
)E (X12 ) −
( E (X1 ) )2
n
n
n−1
=
V (X1 )
n
= (1 −
Die Verteilung der Summe unabhängiger Messgrößen
Sind die Messgrößen X und Y unabhängig, so können wir die Verteilung der
Summe X + Y bestimmen, wenn wir die Verteilung der Größen X und Y kennen.
Beispiele. a) X unterliege der Bernoulliverteilung mit Parametern n und p und Y
der Bernoulliverteilung mit Parametern m und p. Dann ist
P (X + Y ≤ k) =
k
X
P (X = k − `)P (Y = `)
`=0
k X
m
=
pk−` (1 − p)n−k+` p` (1 − p)m−`
`
`=0
k X
n
m
k
n+m−k
= p (1 − p)
k−`
`
`=0
n+m
=
pk (1 − p)n+m−k
k
n
k−`
Also genügt auch X + Y einer Bernoulliverteilung. Ihre Parameter sind n + m und
p.
b) X und Y seien poissonverteilt mit Parametern λ und λ0 . Dann gilt
P (X + Y ≤ k) =
=
k
X
`=0
k
X
`=0
P (X = k − `)P (Y = `)
λk−` (λ0 )` −λ−λ0
e
(k − `)!`!
= e−λ−λ
0
(λ + λ0 )k
k!
Das ist die Poissonverteilung mit Parameter λ + λ0 .
34
KAPITEL 11. ELEMENTARE STOCHASTIK
c) Würfelexperiment: Angenommen, man werfe einen Würfel 2-mal, und es sei X1
die Augenzahl beim 1. Wurf und X2 die Augenzahl beim 2. Wurf. Dann ist
P (X1 + X2 = k) =
k−1
X
P (X1 = k − `)P (X2 = `)
`∈{1,...,6}:1≤k−`≤6
]{1, 2, 3, 4, 5, 6} ∩ {k − 6, k − 5, k − 4, k − 3, k − 2, k − 1}
36
k−1
,
wenn
2
≤
k
≤
7
36
=
13−k
, wenn 8 ≤ k ≤ 12
36
=
für k = 2, ..., 12 und P (X1 + X2 = k) = 0 sonst.
Kontinuierliche Messgrößen
Sind X und Y kontinuierlicher Werte fähig und gibt es Verteilungdichten f X für
X und f Y für Y , so hat X + Y die Verteilungsdichte
Z ∞
X+Y
f
(z) =
f X (z − t)f Y (t)dt
−∞
das heißt also:
Z
s
P (X + Y ≤ s) =
f X+Y (z)dz
−∞
Wichtiges Beispiel. Angenommen X sei nach N (µ, σ) und Y nach N (ν, τ ) verteilt. Sind X und Y unabhängig, so finden wir
Z ∞
(z−t−µ)2
(t−ν)2
1
X+Y
f
(z) =
e− 2σ2 e− 2τ 2 dt
2πστ −∞
Z ∞
2
1
2 y
1
=
e− 2σ2 (w−τ y) − 2 dy , mit t := ν + τ y, w := z − µ − ν
2πσ −∞
Nun ist aber
2
w2
τw
1
2
2
(w − τ y) − y = 2
+ s− √
σ2
σ + τ2
σ σ2 + τ 2
q
wobei s = y 1 +
τ2
.
σ2
Einsetzen ergibt
w2
1
−
√
f X+Y (z) =
e 2(σ2 +τ 2 )
2π σ 2 + τ 2
= √
Z
∞
1
exp −
2
−∞
(z−(µ+ν))2
1
−
√
e 2(σ2 +τ 2 )
2π σ 2 + τ 2
2 !
τw
s− √
ds
σ σ2 + τ 2
11.4. GRENZWERTSÄTZE
35
√
Das zeigt, dass X + Y nach N (µ + ν, σ 2 + τ 2 ) verteilt ist.
Allgemeiner gilt:
Sind X1 , ..., Xn unabhängige Messgrößen, so dass Xk der N (µk , σk )-Verteilung
genügt,
so ist X1 + ... + Xn normalverteilt mit Parameter µ1 + ... + µn und Streuuung
p
σ12 + ... + σn2 .
Beispiel 11 . Die maximal zulässige Belastung eines Aufzugs betrage 500kg oder
6 Personen. Das Körpergewicht X einer Person sei normalverteilt nach N (80, 20).
Mit welcher Wahrscheinlichkeit wird die Grenze von 500 kg überschritten, wenn 6
Personen in den Aufzug steigen?
√
Lösung. Das Gewicht von 6 Personen kann als N (480, 20 6)-verteilt angesehen
werden. Gesucht ist nun
X − 480
1
√
P (X > 500) = P (X − 480 > 20) = P (
>√ )
20 6
6
√
Das ist gerade 1 − Erf(1/ 6) = 0.342. Die W’keit, dass die Gewichtsgrenze von 500
kg überschritten wird, ist also 34.2%.
11.4
Grenzwertsätze
11.4.1
Gesetze der großen Zahlen
Wir benötigen die folgende Ungleichung:
11.4.1 Satz (Tschebycheff-Ungleichung). Ist X eine Zufallsvariable, für welche E (X)
und V (X) endlich sind, so gilt für jedes ε > 0:
P X ({E (X) − ε ≤ X ≤ E (X) + ε}) ≥ 1 −
V (X)
ε2
Beweis. Es gilt mit µ = E (X):
V (X) = E ((X − µ)2 ) ≥ ε2 P (X ∈
/ [µ − ε, µ + ε])
woraus alles folgt.
Definition. Angenommen, wir haben eine Folge (Xn )n von Zufallsvariablen, für die
der Erwartungswert µn := E (Xn ) definiert ist. Für m ≥ 1 setzen wir
X (m)
m
1 X
:=
Xj
m j=1
36
KAPITEL 11. ELEMENTARE STOCHASTIK
Dann sagen wir, es gelte für (Xn )n das (schwache) Gesetz der großen Zahlen, wenn
für jedes positive ε
!
m
X
1
µj > ε = 0
lim P X (m) −
m→∞
m j=1
Aus der Tschebyscheff-Ungleichung folgt: Wenn die Zufallsvariablen Xn sogar eine
endliche Varianz besitzen, so gilt
!
!
m
m
X
X
1
1
1
P X (m) −
µj > ε
≤ 2 Var X (m) −
µj
m j=1
ε
m j=1
!
m
X
1
Var
=
(Xj − µj )
m 2 ε2
j=1
!
m
X
1
Var
Xj
=
m 2 ε2
j=1
Hieraus können wir zwei Sätze ableiten:
11.4.2 Satz (Tschebyscheff ) Angenommen, die Zufallsvariablen (Xn )n haben eine
Varianz und sind paarweise unanbhängig. Gibt es dann eine Schranke S für die Varianzen von Xn , also
Var (Xn ) ≤ S, für alle n,
so gilt für die Folge (Xn )n das Gesetz der großen Zahlen.
Beweis. Denn ist ε > 0 beliebig vorgegeben, so haben wir
!
!
m
m
X
1 X 1
P X (m) −
µj > ε
≤
Var
Xj
m j=1
m2 ε2
j=1
m
1 X
=
Var (Xj )
m2 ε2 j=1
≤
S 1
−→ 0
ε2 m
wenn m −→ ∞.
Hieraus folgt der Satz von Poisson:
11.4.3 Satz (Poisson). Angenommen, jede der Zufallsvariablen Xn nehme nur die
Werte 0 oder 1 an und sei binomialverteilt mit Parameter 1 und pn , also P (Xn =
1) = pn . Sind dann die Xn paarweise stochastisch unabhängig, so gilt das Gesetz der
großen Zahlen für (Xn )n .
11.4. GRENZWERTSÄTZE
37
Beweis. Denn Var (Xn ) = pn (1 − pn ) ≤ 1 für alle n. Der Satz von Tschebyscheff ist
anwendbar.
Ein Spezialfall dieses Satzes ist das Gesetz von Bernoulli:
11.4.4 Satz (Bernoulli). Angenommen, es sei m ≥ 1 und man führe ein Zufallsexperiment m-mal unter gleichen Bedingungen durch, wobei die Wiederholungen unabhängig voneinander sein sollen. Es sei A eines der möglichen Ereignisse, die bei
jeder Wiederholung eintreten können. Dann konvergiert die relative Häufigkeit mit
der dabei A eingetreten, ist nach W’keit gegen die W’keit P (A) für das Ereignis A.
Das heißt: Ist
1
hm (A) := Anzahl der Male , bei denen A eingetreten ist
m
so folgt für jedes beliebige positive ε
P (|hm (A) − P (A)| > ε) −→ 0, wenn m −→ ∞
Beweis. Wir überlegen, was die Situation dieses Satzes mit dem Poissonschen Gesetz
zu tun hat. Dazu wählen wir im Poisson-Satz Xn als die Zufallsvariable, die die Werte
0 oder 1 annehmen kann, und zwar hat Xn den Wert 1, wenn A beim n.-ten Versuch
eintritt und den Wert 0 sonst. Wir setzen pn = P (A) für jedes n. Dann ist für alle n
der Erwartungswert von Xn gerade P (A), und weiter
X(m) = hm (A)
Der Satz von Poisson ergibt jetzt die Behauptung.
11.4.2
Der Zentrale Grenzwertsatz
11.4.5 Satz. Seien Xj , j ≥ 1 identisch verteilte unabhängige Zufallsvariablen mit
Ergebnisraum Ω und σ-Algebra A, es gebe also ein Wahrscheinlichkeitsmaß P auf A,
so dass für jedes Ereignis B ∈ A durch P (B) die Wahrscheinlichkeit gemessen werden
kann, dass Xj Werte in B hat (unabhängig von j). Dann gilt für alle t ∈ R:
√ n 1
(X1 + ... + Xn ) − µ < t = Erf(t) .
lim P
n→∞
σ
n
Anwendungsbeispiele
1) Ein Autohaus verkauft u.a. Autos eines Typs T. Die Zeitspanne zwischen
zwei
√
Verkäufen von T beträgt durchschnittlich 2.4 Tage mit Streuung σ := Varianz =
1.6.
38
KAPITEL 11. ELEMENTARE STOCHASTIK
a) Mit welcher W’keit werden in einem Quartal mindestens 35 Autos der Marke
T verkauft?
b) Wieviel Autos vom Typ T sollte das Autohaus vorrätig haben, damit jeder
Käufer von T mit W’keit ≥ 95% sein Auto gleich mitnehmen kann?
Zu a). Für jedes j sei Xj die Zeit, die zwischen dem Verkauf des (j − 1)-ten und
des j-ten Autos T vergeht. Dann ist E (Xj ) = µ = 2.4 und V (Xj ) = 1.62 = 2.56
unabhängig von j. Wir setzen Zn = X1 + ... + Xn , sowie
gn =
X1 + ... + Xn − nµ
√
σ n
und erhalten P (gn < t) ≈ Erf(t) für große Werte von n.
In unserem Beispiel ist n = 35, µ = 2.4, σ 2 = 2.56. Gesucht ist (Ein Quartal hat
75 Tage)
√
P (Z35 ≤ 75) = P (g35 ≤ (75 − 35 · 2.4)/1.6 35) = P (g35 ≤ −9/1.6 · 5.91)
= P (g35 ≤ −9/9.465) = P (g35 ≤ −0.95)
Man darf den Grenzwertsatz anwenden. Es ist also
Z −0.95
1
2
e−x /2 dx = 0.171
P (Z35 ≤ 75) ≈ √
2π −∞
Zu b) Die Frage ist: Wie groß muss n sein, damit mit 95% Wahrscheinlichkeit ein
Quartal nicht ausreicht, um n + 1 Autos vom Typ T zu verkaufen, also P (Zn+1 >
75) ≥ 0.95 wird.
Nun ist
0.05 ≥ 1 − P (Zn+1 > 75) = P (Zn+1 < 75) = P (gn+1 ≤
1
≈ √
2π
Z
75−2.4(n+1)
√
1.6 n
e−x
2 /2
75 − 2.4(n + 1)
√
)
1.6 n
dx
−∞
Nun ist aber Erf (−1.64) = 0.05. Es sollte also
75 − 2.4(n + 1)
√
≤ −1.64
1.6 n
Das führt auf n ≥ 37.
2) Endkontrolle von Bauteilen. Eine Produktion von Bauteilen wird geprüft. Man
weiß, dass durchschnittlich 5% der Bauteile defekt sind. Mit welcher W’keit Wn liegt
bei 1000 geprüften Bauteilen die Zahl der defekten zwischen 40 und 60?
11.4. GRENZWERTSÄTZE
39
Das Prüfergebnis für jedes Bauteil ist binomialverteilt: Die W’keit, dass es defekt
ist, liegt bei p = 0.05. Das Ergebnis der Prüfung des j.ten Bauteils ist eine Z.G.
Xj mit Werten in {0, 1}, wobei Xj = 1 bedeutet, dass das j.te Bauteil defekt ist.
Prüfen wir n Bauteile, so ist Zn = X1 + ... + Xn die Zahl der defekten Bauteile, wobei
n = 1000. Es gilt nun E (Xj ) = p, V (Xj ) = p(1 − p). Also
40 − 1000p 60 − 1000p
Zn − np
√
√
∈[ √
,
]
Wn = P (Zn ∈ [40, 60]) ≈ P
σ n
σ 1000
σ 1000
Zn − np
√
= P
∈ [−10/6.892, 10/6.892] ,
σ n
√
denn es ist σ = 0.5 · 0.05 = 0.2179. Nun folgt
Wn = Erf(10/6.892)−Erf(−10/6.892) = 2 Erf(10/6.892)−1 = 2Erf(1.451)−1 = 0.91
Beispiel 12 . Angenommen, jemand stelle in seiner Firma Fernschreiber her und die
Erfahrung lehrt, dass 6% der Produktion die Endabnahme nicht bestehen.
i) Mit welcher W’keit bestehen bei einer Produktion von 900 Stück zwischen 60
und 75 Fernschreiber die Endabnahme nicht?
ii) Wie umfangreich muss die Produktion sein, damit mit 95% W’keit mindestens
850 Fernschreiber die Endabnahme bestehen?
Lösung. Seien X1 , ..., Xn die Wiederholungen des Zufallsexperiments X mit zwei
möglichen Ausgängen: X = 1, wenn ein Fernschreiber defekt ist und X = 0 sonst. Das
Testergebnis beim Testen von n Fernschreibern wird dann durch die Bn,p -Verteilte
Zufallsvariable X (n) := X1 + ... + Xn beschrieben, wobei p = 0.06 ist. Dann ist gefragt
nach der W’keit des Ereignisses X (n) ∈ [60, 75]. Nun benutzen wir den Satz von
Moivre-Laplace, der sagt, dass für große n bis auf einen kleinen Fehler gilt
X (n) − np
≤ T ) = Erf(T )
P (p
np(1 − p)
Die gesuchte W’keit ist also
P (60 ≤ X
(900)
X (900) − 900p
21
6
p
p
≤
≤ p
)
≤ 75) = P (
30 p(1 − p)
30 p(1 − p)
30 p(1 − p)
21
6
= Erf( p
) − Erf( p
)
30 p(1 − p)
30 p(1 − p)
= Erf(2.9475) − Erf(0.8421) = 0.198
40
KAPITEL 11. ELEMENTARE STOCHASTIK
Soll die Anzahl der intakten Geräte mit W’keit 0.95 größer oder gleich 850 werden,
so soll
n − 850 − np
X (n) − np
≤ p
) ≥ 0.95
P (p
np(1 − p)
np(1 − p)
werden, denn n − X (n) ist die Anzahl der intakten Geräte, und wir wollen n − X (n) ≥
850 erreichen. Vertauschen wir auf der linken Seite p mit 1 − p, so soll also
n − 850 − np
) ≥ 0.95
Erf( p
np(1 − p)
werden. Das bedeutet
n − 850 − np
p
≤ 1.645
np(1 − p)
Diese Bedingung ist ab n = 917 erfüllt.
Konfidenzschranken und -intervall für den Mittelwert einer
normalverteilten Zufallsvariablen bei bekannter Varianz
Angenommen, wir haben n unabhängige nach N (µ, σ) verteilte Zufallsvariablen
X1 , ..., Xn gegeben. Dann setzen wir
Un :=
X (n) − µ
√ ,
σ/ n
wobei wieder
n
X (n) =
1X
Xj
n j=1
Ist dann qε das ε-Fraktil der Normalverteilung, so gilt
P (Un ≥ qα ) = 1 − α
Das bedeutet:
Mit W’keit 1 − α besteht die Beziehung Un ≥ qα .
Formen wir das um, folgt:
σ
σ
µ ≤ X (n) − √ qα = X (n) + √ q1−α
n
n
Wissen wir also, dass die Xj gewisse Werte xj annehmen, so können wir schließen,
dass mit der W’keit 1 − α der Mittelwert µ durch
n
1X
σ
µ≤
xj + √ q1−α
n j=1
n
11.4. GRENZWERTSÄTZE
41
abgeschätzt werden kann.
Die rechte Seite nennt man obere Konfidenzschranke go für µ zum Niveau 1 − α.
Genauso findet man wegen
P (Un ≤ q1−α ) = 1 − α
dass mit W’keit 1 − α die Abschätzung Un ≤ q1−α , also
σ
µ ≥ X (n) − √ q1−α
n
besteht. Haben dei Xj die Werte xj angenommen, so führt dies auf die untere Konfidenzschranke
n
σ
1X
xj − √ q1−α
gu (x1 , ..., xn ) :=
n j=1
n
zum Niveau 1 − α.
Für das Intervall
Iα := [−q1− α2 , q1− α2 ]
besteht die Beziehung
P (Un ∈ Iα ) = 1 − α
also kann man sagen, dass mit W’keit 1 − α die Ungleichung
σ
σ
X (n) − √ q1− α2 ≤ Un ≤ X (n) + √ q1− α2
n
n
besteht.
Damit finden wir, dass mit W’keit 1 − α der wahre Wert von µ im Intervall
σ
σ
I = [X (n) − √ q1− α2 , X (n) + √ q1− α2 ]
n
n
liegt. Liegen konkrete Werte xj für die Xj vor, so finden wir mit
I=
n
h1 X
n
i
σ
1X
σ
xj − √ q1− α2 ,
xj + √ q1− α2
n j=1
n j=1
n
n
ein Konfidenzintervall zum Niveau 1 − α für µ.
Dazu ein
Beispiel. Sollwertkontrolle. Bei der Produktion von Zylinderscheiben soll überprüft
werden, ob ein Sollwert für deren Durchmesser, etwa 20.2mm, eingehalten wird. Angenommen, man entnimmt aus der laufenden Produktion 16 Stück und stellt fest, dass
42
KAPITEL 11. ELEMENTARE STOCHASTIK
der mittlere Durchmesser 20.6 mm beträgt, wobei ein Toleranzspanne von 0.5 mm
eingeräumt wird. Kann man jetzt mit genügender Sicherheit sagen, dass der Sollwert
eingehalten wurde?
Nun ist n = 16 und Xj der Durchmesser der j.-ten Zylinderscheibe. Eine Schätzung
des Parameters µ ist gesucht. Die Varianz ist σ 2 = 0.25. Wir wählen etwa α = 0.05.
Dann erhalten wir als Konfidenzschranken für µ:
g0 = 20.6 +
0.5
0.5
q0.95 = 20.6 +
· 1.645 = 20.806
4
4
und
0.5
· 1.645 = 20.39
4
Als Konfidenzintervall zum Niveau 0.95 ergibt sich
gu = 20.6 −
I = [20.6 −
0.5
0.5
· q0.975 , 20.6 +
· q0.975 ] = [20.335, 20.845]
4
4
Auf der Grundlage der Stichprobe muss man daher urteilen, dass der wahre Mittelwert
innerhalb I, bezw. oberhalb gu liegt, also der Sollwert von 20.2 mm nicht eingehalten
wird. Dieses Urteil ist mit Sicherheitsw’keit 95% abgesichert!
2. Fall: Die Varianz sei nicht bekannt.
Nun arbeiten wir mit der Zufallsvariablen
Tn =:=
mit
√ (X (n) − µ)
n
S (n)
n
X (n)
n
1X
1 X
=
Xj , S (n) =
(Xj − X (n) )2
n j=1
n − 1 j=1
welche der tn−1 -Verteilung unterliegt. Bedeutet jetzt qtn−1 ,α das α-Quantil der
Student-tn−1 -Verteilung, so haben wir
P (Tn ≤ qtn−1 ,α ) = 1 − α
also ist mit W’keit 1 − α die Abschätzung
Tn ≤ qtn−1 ,α
richtig. Das bedeutet aber, dass bei explizitem Wert x(n) für X(n) und resultierendem
Wert s(n) für S (n) mit W’keit 1 − α gilt
p
s(n)
µ ≥ x(n) − √ qtn−1 ,α
n
11.4. GRENZWERTSÄTZE
43
was uns die untere Konfidenzschranke
s(n)
µu = x(n) − √ qtn−1 ,α
n
liefert.
In entsprechender Weise haben wir in
p
s(n)
µo = x(n) + √ qtn−1 ,α
n
eine obere Konfidenzschranke gefunden.
Beispiel. Man ermittelt den fraglichen Benzinverbrauch bei 15 Wagen und findet
folgende Tabelle für den Benzinverbrauch:
2
3
4
5
6
7
8
9
10 11 12 13 14 15
Wagen Nr. j 1
Verbrauch
in `/100 km 6.5 6.3 6.6 6.7 6.5 6.8 6.6 6.4 6.9 7.1 6.9 6.7 6.7 6.6 6.4
Ist der Wert höher als 6.4, so stellt man die Herstellerangabe in Frage. Inwieweit
ist das gerechtfertigt?
Unsere Stichprobe hat den Umfang n = 15. Bezeichnet jetzt Xj den Verbrauch
des j.-ten Autos, so wissen wir schon:
Die Größe
√ (X (n) − µ)
Tn =:= n
S (n)
mit
n
X (n)
n
1X
1 X
=
Xj , S (n) =
(Xj − X (n) )2
n j=1
n − 1 j=1
ist tn−1 -verteilt. Nun ist hier n = 14. Wir finden x(15) = 6.6466 und
Das führt auf
p
s(15) = 0.216.
0.216
0.216
µu = 6.6466 − √
· qt14 ,0.95 = 6.6466 −
· 1.761 = 6.54 > 6.4
3.741
14
Die Herstellerangabe kann also angezweifelt werden, wobei die Irrtumsw’keit höchstens
5 Prozent beträgt.
Die Binomialverteilung
Angenommen, wir wiederholen ein Zufallsexperiment, das nur 2 Ausgänge (Erfolg
und Mißerfolg) haben kann, n-mal und wollen die W’keit p für ”Erfolg” schätzen.
44
KAPITEL 11. ELEMENTARE STOCHASTIK
Wir schreiben Xj = 1, wenn beim j-ten Mal Erfolg eintritt. Dann ist X (n) die relative
Häufigkeit für Erfolg. Dann ist
Un :=
√
X (n) − p
np
p(1 − p)
näherungsweise N (0, 1)-verteilt, wenn n groß genug ist. Die Größe Un , als Funktion
von p angesehen, ist aber monoton fallend. Mit W’keit 1−α haben wir nun Un ≤ q1−α ,
wobei wieder q1−α das (1−α)-Quantil der Normalverteilung ist. Es folgt für die untere
Konfidenzschranke pu für p die Gleichung
√ X (n) − pu
np
= q1−α
pu (1 − pu )
Diese Gleichung lösen wir nach pu auf.
Analog gilt, da Un ≥ qα mit W’keit 1 − α gilt, für eine obere Konfidenzschranke
po für p die Gleichung
√ X (n) − po
= qα
np
po (1 − po )
Beispiel. Eine Lieferung von Bauteilen wird auf Qualität getestet. Man entnimmt
eine Stichprobe vom Umfang n = 100 und stellt findet 5 defekte Bauteile darin. Dann
erfüllt eine obere Konfidenzschranke zum Niveau 1 − α die Gleichung
0.05 − pu
10 p
= q1−α
pu (1 − pu )
also, für α = 0.05 wird pu = 0.02454, während po = 0.099.
Herunterladen