Beispiel

Werbung
Kapitel 5
Wahrscheinlichkeit
Inhalt
5.1 Grundbegriffe
W, X, ...
5.2 Wahrscheinlichkeitsräume
(W, P)
5.3 Das Laplace-Modell
P(A) = A/W
5.4 Erwartungswert
E(X)
Literatur: N. Henze: Stochastik für Einsteiger (die erste Hälfte).
A. Engel: Wahrscheinlichkeitsrechnung und Statistik
Kapitel 5
© Beutelspacher
Dezember 2004
Seite 2
5.1 Zufallsexperimente
Beispiele: Münzwurf, Würfeln, ...
Wir sprechen von einem (idealen) Zufallsexperiment, wenn die
folgenden Bedingungen erfüllt sind:
• Versuchsbedingungen klar definiert. Zum Beispiel: Auswahl des
Würfels, ...)
• Menge W der Ergebnisse (Ausgänge): vor der Durchführung
bekannt. Zum Beispiel: = {1, 2, 3, 4, 5, 6}.
• Das Experiment kann beliebig oft unter den gleichen Bedingungen
wiederholt werden.
Kapitel 5
© Beutelspacher
Dezember 2004
Seite 3
Beispiele für Zufallsexperimente
• Münzwurf
W = {Kopf, Zahl} oder W = {K, Z} oder W = {0, 1}.
• Anzahl der Würfe bis zur ersten Sechs
W = {1, 2, 3, 4, ...}
• In einer Box liegen vier mit 1, 2, 3, 4 beschriftete Kugeln; zwei
Kugeln werden mit einem Griff gezogen.
W = { {1,2}, {1,3}, {1,4}, {2,3}, {2,4}, {3,4} }.
• Zweimaliges Werfen mit einem Würfel.
W = { (1,1), (1,2), (1,3), ..., (2,1), (2,2), ..., (3,1), ..., (6,6)}.
• Lotto 6-aus-49
W = alle 6-elementige Teilmengen von {1, 2, 3, ..., 49}.
Kapitel 5
© Beutelspacher
Dezember 2004
Seite 4
Notation
W = {w1, w3, w3, ...} („omega“) heißt Ergebnismenge
(manchmal auch Grundraum).
Wenn man das Experiment n mal durchführt, hat man als
Ergebnismenge die Menge
W  W  W  ...  W
bzw. wenn die i-te Wi Ergebnismenge vom Index i abhängt:
W1  W2  W3  ...  Wn .
Kapitel 5
© Beutelspacher
Dezember 2004
Seite 5
Ereignisse
In vielen Situationen interessieren nicht alle Ausgänge,
sondern nur spezielle.
Beispiele:
• Beim Würfeln interessiert nur, ob man eine 6 würfelt.
• Beim Würfeln mit zwei Würfeln kann eventuell nur interessieren,
ob die Summe der Augenzahlen mindestens 8 ist.
• Beim dreimaligen Werfen einer Münze interessiert nur,
ob zwei aufeinanderfolgende Würfe das gleiche Ergebnis haben.
Kapitel 5
© Beutelspacher
Dezember 2004
Seite 6
Definition: Ereignis
Definition: Ein Ereignis ist eine Teilmenge von W.
D.h. in dieser Teilmenge werden die interessierenden Ausgänge
zusammengefasst.
Ereignisse werden üblicherweise mit großen lateinischen
Buchstaben A, B, ... Bezeichnet.
{} = :
unmögliches Ereignis
{w}:
Elementarereignis (w  W).
Kapitel 5
© Beutelspacher
Dezember 2004
Seite 7
Rechnen mit Ereignissen
Da Ereignisse Teilmengen von W sind, kann man
den Durchschnitt A  B, die Vereinigung A  B, die Differenz A \ B
der Ereignisse A und B bilden.
A := W \ A: Gegenereignis, Komplement von A
Ereignisse A, B unvereinbar, falls A  B = {}.
Ereignisse A1, A2, A3, ..., An unvereinbar,
falls je zwei der Mengen disjunkt sind.
Schreibweise: S Ai = A1 + A2 + ... + An := A1  A2  ...  An
für unvereinbare Ereignisse Ai.
Kapitel 5
© Beutelspacher
Dezember 2004
Seite 8
Beispiel
Zweimaliges Würfeln mit einem Würfel
Ereignis A: Der erste Wurf ist eine 5.
A = {(5,1), (5,2), (5,3), (5,4), (5,5), (5,6)}.
Ereignis B: Die Augenzahl aus beiden Würfen ist mindestens 9.
B = {(3,6), (4,5), (4,6), (5,4), (5,5), (5,6), (6,3), (6,4), (6,5), (6,6)}.
A  B = {(5,4), (5,5), (5,6)}.
A \ B = {(5,1), (5,2), (5,3)}.
B \ A = {(3,6), (4,5), (4,6), (6,3), (6,4), (6,5), (6,6)}L
Kapitel 5
© Beutelspacher
Dezember 2004
Seite 9
Erinnerung
Seien A, B, C Ereignisse. Dann gelten die folgenden Gesetze:
A  B = B  A, A  B = B  A
Kommutativgesetz
(A  B)  C = A  (B  C), (A  B)  C = A  (B  C) Assoziativges.
A  (B  C) = (A  B)  (A  C)
Distributivgesetz
A  B = A  B, A  B = A  B
Regeln von de Morgan
A1  A2  ...  An = A1  A2  ...  An .
Kapitel 5
© Beutelspacher
Dezember 2004
Seite 10
Zufallsvariable
Definition. Sei W ein Grundraum. Eine Zufallsvariable ist eine
Abbildung
X: W  R.
Vorstellung: Jedem Ausgang w eines Zufallsexperiments wird eine
reelle Zahl X(w) zugeordnet („Realisierung der Zufallsvariablen zum
Ausgang w“).
Beispiel: Bei einem Glücksspiel ist X(w) der Gewinn bzw. Verlust
beim Ausgang w des Spiels.
Bem. 1. Eine Zufallsvariable ist keine Variable, sondern eine
Funktion. 2. Sie wird nicht mit g, ... bezeichnet, sondern mit X, Y, ...
Kapitel 5
© Beutelspacher
Dezember 2004
Seite 11
Beispiel
Zweimaliges Würfeln:
W = {(1,1), (1,2), ..., (6,6)} = {(i,j)  i, j  {1, 2, 3, 4, 5, 6}}.
X(w) = i + j, falls w = (i,j)
(i: Augenzahl des ersten Wurf, j: Augenzahl des zweiten Wurfs).
Beobachtung: Aus der Realisierung X(w) kann man im allgemeinen
w nicht zurückgewinnen. Zum Beispiel haben die drei Ausgänge
(1,3), (2,2), (3.1) die Realisierung 4.
Kapitel 5
© Beutelspacher
Dezember 2004
Seite 12
Wichtige (und schwierige ...) Schreibweise
Wir schreiben
{X = k} := {w  W  X(w) = k}.
Das ist das Ereignis, dass X den Wert k annimmt.
Beispiel (zweifaches Würfeln):
{X = 4} = {(1,3), (2,2), (3,1)}.
Wir können die Ereignisse {X = 2}, {X = 3}, ..., {X = 12} wieder als
Elementarereignisse eines Experiments auffassen, bei dem nicht w,
sondern X(w) als Ausgang angesehen wird.
Kapitel 5
© Beutelspacher
Dezember 2004
Seite 13
Beispiele
Zweimaliges Würfeln
• Augensumme ist 9: {X = 9}
• Augensumme ist mindestens 10: {X = 10} + {X = 11} + {X = 12}
• Augensumme ist höchstens 5: {X = 2} + {X = 3} + {X = 4} + {X = 5}.
Kapitel 5
© Beutelspacher
Dezember 2004
Seite 14
Rechnen mit Zufallsvariablen
Aus einer bzw. zwei Zufallsvariablen kann man neue Zufallsvariablen
machen. Seien dazu X und Y Zufallsvariablen, d.h. Abbildungen
von W  R.
1. Produkt einer Zufallsvariablen mit einer reellen Zahl.
Die Abbildung aX: W  R, die definiert ist durch (aX)(w) := aX(w)
ist eine Zufallsvariable.
2. Summe zweier Zufallsvariablen.
Die Abbildung X+Y : W  R, die definiert ist durch (X+Y)(w) :=
X(w)+Y(w) ist eine Zufallsvariable.
3. Entsprechend: Differenz, Produkt, Maximum, Minimum.
Kapitel 5
© Beutelspacher
Dezember 2004
Seite 15
Beispiel
Zweifaches Würfeln
Sei w = (i, j),
X(w) = i (Augenzahl beim ersten Wurf),
Y(w) = j (Augenzahl beim zweiten Wurf).
Dann ist
X+Y = Summe der Augenzahlen
max(X, Y) = höchste Augenzahl
min(X, Y) = niedrigste Augenzahl
X–Y = Differenz des zweiten vom ersten Wurf
(X+Y)/2 = Durchschnitt der beiden Würfe
Kapitel 5
© Beutelspacher
Dezember 2004
Seite 16
Indikatorfunktion
Definition. Sei A ein Ereignis, d.h. eine Teilmenge von W.
Die Indikatorfunktion IA ist die Zufallsvariable, die 1 ist,
wenn das Ergebnis w zu A gehört, und 0 sonst. Das heißt
IA(w) = 1, falls w  W,
IA(w) = 0, falls w  W.
Die Realisierung von IA gibt an, ob das Ereignis eingetreten ist.
Beispiel: Sei A das Ereignis, beim einfachen Würfeln eine gerade
Zahl zu würfeln. Dann ist
IA(1) = IA(3) = IA(5) = 0, IA(2) = IA(4) = IA(6) = 1.
Kapitel 5
© Beutelspacher
Dezember 2004
Seite 17
Hilfssatz über Indikatorfunktionen
5.1.1 Hilfssatz. Sei X eine Zufallsvariable,
und seien A und B Ereignisse. Dann gilt
IAB = IA  IB.
In Worten: Die Indikatorfunktion des Durchschnitts zweier Ereignisse
ist gleich dem Produkt der einzelnen Indikatorfunktionen.
5.1.2 Folgerung. IA = IA  IA.
Beweis der Folgerung: Setze B = A. Dann ist A  B = A  A = A. 
Kapitel 5
© Beutelspacher
Dezember 2004
Seite 18
Beweis des Hilfssatzes
Beweis. Sei w ein Ergebnis. Wir unterscheiden zwei Fälle.
1. Fall: w  A  B.
Dann ist IA  B(w) = 1.
Andererseits ist IA(w) = 1 und I B(w) = 1, da w sowohl in A als
auch in B liegt. Somit ist auch (IA I B)(w) = IA(w)I B(w) = 11 = 1.
Also gilt L.S. = R.S.
2. Fall: w  A  B.
Dann ist IA  B(w) = 0.
Ferner ist w  A oder w  B. Somit ist IA(w) = 0 oder I B(w) = 0.
Also ist in jedem Fall (IA I B)(w) = IA(w)I B(w) = 0.
Also ist auch im 2. Fall L.S. = R.S. 
Kapitel 5
© Beutelspacher
Dezember 2004
Seite 19
Zählvariablen
Sei W ein Grundraum, und seien A, B, C, ... Ereignisse.
Problem: Wir wollen beschreiben,
wie oft eines der Ereignisse A, B, C, ... auftritt.
Dies wird durch die folgende Zufallsvariable X beschrieben:
X = IA + IB + IC + ...
(Denn: Wenn wir die rechte Seite auf ein Ergebnis w anwenden,
erhalten wir bei einem einzelnen Summanden eine 1, wenn w zu
diesem Ereignis gehört, und sonst eine 0.
Also X(w) die Anzahl der Ereignisse, zu denen w gehört.)
Kapitel 5
© Beutelspacher
Dezember 2004
Seite 20
Beispiel
In vielen Situationen interessiert die Anzahl der „Treffer“.
Beispiele: Würfeln (Treffer: 6, Niete: alles andere), Münzwurf (Treffer:
Kopf, Niete: Zahl), Lotto (Treffer: 6-er, Niete: alles andere),
zweimaliges Würfeln (Treffer: Augenzahl  8, Niete: Augenzahl < 8).
Modellierung: Wir beschreiben einen Treffer durch die Zahl 1, eine
Niete durch 0.
Dann ist die Ergebnismenge (bei n Grundexperimenten):
W = {0,1}n = {(a1, a2, ..., an)  ai  {0,1}}.
X = a1 + a2 + ... + an ist die Zufallsvariable, die die Anzahl der Treffer
angibt.
Kapitel 5
© Beutelspacher
Dezember 2004
Seite 21
Relative Häufigkeit
Um die Chancen eines Zufallsexperiments abzuschätzen, führt man
es häufig durch.
Beispiel: Werfen einer realen Münze (Zahl: 1, Kopf: 0):
1011000111 11101100011 0100111010 0000011011 0000110110
Relative Häufigkeit für das Auftreten einer 1 nach 10, 20, ...
Versuchen:
0,6 0,65 0,6 0,55 0,52
Man hat den Eindruck, dass sich die relativen Häufigkeiten
„stabilisieren“.
Kapitel 5
© Beutelspacher
Dezember 2004
Seite 22
Definition relative Häufigkeit
Definition. Wir führen ein Zufallsexperiment n mal durch. Wir
wollen wissen, „wie häufig“ der Ausgang zu einem Ereignis A
gehört.
Angenommen, das Experiment liefert die Ausgänge a1, a2, ..., an.
Dann ist die relative Häufigkeit bezüglich dieser Experimente
definiert durch
r = rn(A) = {i  ai  A} / n.
Rezept: Zähle, wie oft der Ausgang in A liegt, dividiere durch n.
Achtung! Die relative Häufigkeit ist eine empirische Zahl!
Kapitel 5
© Beutelspacher
Dezember 2004
Seite 23
Eigenschaften der relativen Häufigkeiten
• rn  0 für alle Zufallsexperimente und alle Ereignisse
(„Nichtnegativität“).
• Wenn A und B zwei unvereinbare Ereignisse sind, dann gilt
rn(A  B) = rn(A) + rn(B).
(„Additivität)
• rn(W) = 1 („Normiertheit“)
Kapitel 5
© Beutelspacher
Dezember 2004
Seite 24
Stabilisierung empirischer Häufigkeiten
• Bei vielen Experimenten „hat man das Gefühl“, dass sich die
empirischen Häufigkeiten stabilisieren.
• Beispiele: Münzwurf, Werfen einer Reißzwecke, Würfeln, ...
• Wenn z.B. ein Würfel „auf Dauer“ deutlich mehr als ein Sechstel
Sechsen zeigen würde, würde man nicht an einen fairen Würfel
glauben.
• Dieses Gesetz über die Stabilisierung empirischer Häufigkeiten ist
aber nur eine Erfahrungstatsache, kein mathematisches Gesetz!
• Alle Versuche, den Zufall mathematisch über den Weg der relativen
Häufigkeiten zu beschreiben, sind i.w. gescheitert ...
Kapitel 5
© Beutelspacher
Dezember 2004
Seite 25
5.2 Wahrscheinlichkeitsräume
Definition. Ein (endlicher) Wahrscheinlichkeitsraum (W-Raum)
besteht aus einem Grundraum W und einer Abbildung P, die jeder
Teilmenge A von W eine reelle Zahl P(A) zuordnet, so dass
folgende Gesetze gelten:
• P(A)  0 für alle A  W.
Nichtnegativität
• P(A  B) = P(A) + P(B), falls A  B = {}.
Additivität
• P(W) = 1.
Normiertheit
Wir schreiben (W, P).
P heißt Wahrscheinlichkeitsverteilung (Wahrscheinlichkeitsmaß) auf
W. Die Zahl P(A) heißt die Wahrscheinlichkeit des Ereignisses A.
Kapitel 5
© Beutelspacher
Dezember 2004
Seite 26
Bemerkungen
• Mit diesen Axiomen werden nur „Spielregeln“ im Umgang mit den
mathematischen Wahrscheinlichkeiten festgelegt.
• Obwohl die Axiome nach dem Vorbild der Eigenschaften der
relativen Häufigkeiten gebildet sind, handelt es sich um Aussagen
über mathematische Objekte.
• Die Axiome ergeben sich nicht zwangsläufig aus der Erfahrung.
• Umgekehrt: Bei einer Anwendung muss man überprüfen, ob die
realen Bedingungen den mathematischen Axiomen entsprechen.
Kapitel 5
© Beutelspacher
Dezember 2004
Seite 27
Erste Eigenschaften
5.2.1 Hilfssatz. Sei (W, P) ein Wahrscheinlichkeitsraum.
(a) P({}) = 0.
(b) P(A  B  C) = P(A) + P(B) + P(C), falls A, B, C unvereinbar
sind.
(c) P(A  B) = P(A) + P(B) – P(A  B) für beliebige Ereignisse A, B.
(d) P(A)  1 für alle A.
(e) P(A) = 1 – P(A).
(f) Wenn A  B, dann ist P(A)  P(B).
Kapitel 5
© Beutelspacher
Dezember 2004
Seite 28
Beweis (a)
(a) folgt aus der Additivität
P(A  B) = P(A) + P(B) (falls A  B = { })
und der Normiertheit
P(W) = 1
der Wahrscheinlichkeitsverteilung P, wenn wir A = { } und B = W setzen:
1 = P(W) = P({ }  W) = P({ }) + P(W) = P({ }) + 1,
also P({ }) = 0.
Kapitel 5
© Beutelspacher
Dezember 2004
Seite 29
Beweis (b)
(b) folgt durch mehrfaches Ausnutzen der Additivität
P(A  B) = P(A) + P(B) (falls A  B = { })
der Wahrscheinlichkeitsverteilung P:
P(A  B  C) = P((A  B)  C)
= P(A  B) + P(C)
= P(A) + P(B) + P(C).
Kapitel 5
© Beutelspacher
Dezember 2004
Seite 30
Beweis (c)
(c) Wir zerlegen die Menge A  B in die disjunkten Teile A \ B, A  B
und B \ A. Nach (b) gilt dann
P(A  B) = P(A \ B) + P(A  B) + P(B \ A).
Aufgrund der Additivität gilt
P(A) = P(A  B) + P(A \ B) (denn A = (A  B)  (A \ B)),
P(B) = P(A  B) + P(B \ A) (denn B = (B  A)  (B \ A)).
Lösen wir diese beiden Gleichungen nach P(A \ B) bzw. P(B \ A) auf,
und setzen das Ergebnis in die obere Gleichung ein, so ergibt sich
P(A  B) = P(A) + P(B) - P(A  B).
Kapitel 5
© Beutelspacher
Dezember 2004
Seite 31
Beweise (e), (d) und (f)
(e) Wir zerlegen den Grundraum W in die disjunkten Teilmengen A und
A. Aufgrund der Normiertheit und der Additivität von P folgt:
1 = P(W ) = P(A  A) = P(A) + P(A).
(d) Da P(A)  0 gilt, folgt aus (e): P(A) = 1 - P(A)  0, also P(A)  1.
(f) Wenn A  B ist, dann können wir B in die disjunkten Teilmengen A
und B \ A zerlegen. Daher ist
P(B) = P(A) + P(B \ A).
Da P(B \ A)  0 ist, folgt P(B)  P(A).
Kapitel 5
© Beutelspacher
Dezember 2004
Seite 32
Wahrscheinlichkeit von Elementarereignissen
Frage: Müssen wir die Wahrscheinlichkeitsverteilung P für jede
Teilmenge A von W einzeln definieren?
(Bereits bei | W | = 10 wären das 210 = 1024 Teilmengen, für die wir die
Wahrscheinlichkeit festlegen müßten!)
Antwort: Nein! Es genügt, jedem Elementarereignis {w} eine
Wahrscheinlichkeit P({w}) zuzuordnen. Zur Abkürzung: p(w) := P({w}).
Die Wahrscheinlichkeit eines Ereignisses A ergibt sich dann wie folgt.
5.2.2 Satz. Sei A ( {}) ein Ereignis im Grundraum W. Dann gilt
P(A) =
 p(w).
wA
Kapitel 5
© Beutelspacher
Dezember 2004
Seite 33
Beweis
Beweis.
Jedes Ereignis A  W besteht aus gewissen Ergebnissen w  W.
Wir können A wie folgt als Vereinigung von Elementarereignissen {w}
schreiben:
A=
 {w}.
wA
Da die Elementarereignisse disjunkt sind, ergibt sich aufgrund der
Additivitätseigenschaft
P(A) = P(
 {w}) =  p(w).
wA
Kapitel 5
wA
© Beutelspacher
Dezember 2004
Seite 34
5.3 Das Laplace-Modell
Idee: Bei vielen Zufallsexperimenten sind alle Elementarexperimente
„gleich wahrscheinlich“.
Beispiele: Würfeln mit einem „korrekten“ Würfel, Werfen einer
„fairen“ Münze.
Definition: Sei W = {w1, w2, ..., ws} eine s-elementige Menge,
und sei
p(w) = 1/s für alle w  W.
Dann heißt (W, P) ein Laplacescher Wahrscheinlichkeitsraum.
Man nennt P die diskrete Gleichverteilung (Laplace-Verteilung).
Kapitel 5
© Beutelspacher
Dezember 2004
Seite 35
Bemerkungen
5.3.1 Satz. In einem Laplaceschen Wahrscheinlichkeitsraum gilt
P(A) = A / s = A / W
für alle Ereignisse A.
(Beweis. Sei A = {w1, w2, ..., wt}. Dann folgt mit 5.2.2
P(A) = p(w1) + p(w2) + ... + p(wt) = t  1/s = A / s.)
Pierre Simon Laplace (1749 – 1827): Professor in Paris.
Kapitel 5
© Beutelspacher
Dezember 2004
Seite 36
Beispiel: Zweifaches Würfeln
Frage: Mit welcher Wahrscheinlichkeit tritt die Augenzahl 5
(oder irgend ein Zahl zwischen 2 und 12) auf?
W = {(1,1), ..., (6.6)} = {1, 2, ..., 6}  {1, 2, ..., 6}
(1,1) (1,2) (1,3) (1,4) (1,5) (1,6)
(2,1) (2,2) (2,3) (2,4) (2,5) (2,6)
(3,1) (3,2) (3,3) (3,4) (3,5) (3,6)
(4,1) (4,2) (4,3) (4,4) (4,5) (4,6)
(5,1) (5,2) (5,3) (5,4) (5,5) (5,6)
(6,1) (6,2) (6,3) (6,4) (6,5) (6,6)
Laplacescher Wahrscheinlichkeitsraum  p(w) = 1/36.
Kapitel 5
© Beutelspacher
Dezember 2004
Seite 37
Beispiel: zweifaches Würfeln. Die Wahrscheinlichkeiten
X(w) = i+j für w = (i, j).
{X = 5} = {(1,4), (2,3), (3,2), (4,1)}.
Also P(X = 5) = 4/36 = 1/9.
Im allgemeinen gilt
P(X = 2) = 1/36, P(X = 3) = 2/36, P(X = 4) = 3/36, P(X = 5) = 4/36,
P(X = 6) = 5/36, P(X = 7) = 6/36, P(X = 8) = 5/36, P(X = 9) = 4/36,
P(X = 10) = 3/36, P(X = 11) = 2/36, P(X = 12) = 1/36.
Kapitel 5
© Beutelspacher
Dezember 2004
Seite 38
Beispiel (Leibniz)
Leibniz (Gottfried Wilhelm Leibniz, 1646 – 1716) meinte, dass beim
Würfeln mit zwei Würfeln die Augensummen 11 und 12 gleich
wahrscheinlich sind.
Offenbar betrachtet Leibniz Grundraum
W = {(1,1), (1,2), (1,3), (1,4), (1,5), (1,6), (2,2), (2,3), (2,4), (2,5), (2,6),
(3,3), (3,4), (3,5), (3,6), (4,4), (4,5), (4,6), (5,5), (5,6), (6,6)}
wobei (i,j) interpretiert wird als „ein Würfel zeigt i, der andere j“.
Es gibt genau ein Experiment w, das die Realisierung X(w) = 11 und
genau ein Experiment, das die Realisierung 12 hat.
Aber ...
Kapitel 5
© Beutelspacher
Dezember 2004
Seite 39
Beispiel (Leibniz): Fortsetzung
... aber es handelt sich nicht um einen Laplaceschen
Wahrscheinlichkeitsraum.
Das heißt: Nicht alle Elementarereignisse sind gleich wahrscheinlich!
Lösung: In unserer Vorstellung müssen wir die Würfel unterscheiden
(z.B. einer rot, einer schwarz).
Dann gibt es für die Augenzahl 12 nur einen Ausgang (nämlich rot =
6 und schwarz = 6), aber für die Augensumme 11 zwei Ausgänge
(rot = 5, schwarz = 6 und rot = 6 und schwarz = 5).
Mit anderen Worten: Wenn man die Gleichverteilung anwenden will,
muss man den Grundraum W = {1, 2, ..., 6}  {1, 2, ..., 6} betrachten.
Kapitel 5
© Beutelspacher
Dezember 2004
Seite 40
Beispiel (Galilei)
Galileo Galilei (1564 – 1642) wurde folgende Frage gestellt:
Warum ist beim dreimaligen Würfeln die Augensumme 10
wahrscheinlicher als die Augensumme 9
– obwohl es jeweils gleich viele Kombinationen gibt, nämlich
1 2 6, 1 3 5, 2 2 5, 2 3 4, 1 4 4, 3 3 3 bzw.
1 3 6, 2 2 6, 1 4 5, 2 3 5, 2 4 4, 3 4 4 ???
Mögliche Antworten: (a) Es gibt zwar gleich viele „Kombinationen“,
diese haben aber nicht die gleiche Wahrscheinlichkeit.
(b) Am besten betrachtet man den zugehörigen Laplaceschen
Wahrscheinlichkeitsraum:
Kapitel 5
© Beutelspacher
Dezember 2004
Seite 41
Beispiel (Galilei). Lösung
W = {1, 2, ..., 6}  {1, 2, ..., 6}  {1, 2, ..., 6}. W = 63 = 216.
X(w) = i + j + k, wobei w = (i, j, k) ist.
Das Ereignis {X = 9} besteht aus
6 Permutation von 1 2 6,
6 Permutationen von 135,
3 unterscheidbaren Permutation von 2 2 5,
6 Permutationen von 2 3 4,
3 unterscheidbaren Permutationen von 1 4 4,
dem Wurf 3 3 3.
Also P(X = 9) = 25/216. Andererseits ist P(X = 10) = 27/216.
Kapitel 5
© Beutelspacher
Dezember 2004
Seite 42
Das Ziegenproblem
In einer Spielshow steht der Gewinner am Ende vor folgender
Situation:
• Vor sich sieht er drei Türen. Er weiß: Hinter einer steht ein Auto,
hinter den beiden anderen nur eine Ziege (= Niete).
• Er wählt eine Tür – ohne sie zu öffnen.
• Dann öffnet der Showmaster eine andere Tür, hinter der eine Ziege
steht.
• Jetzt fragt der Showmaster den Kandidaten: Wollen sie die von
Ihnen gewählte Tür wechseln?
Problem: Kann die Mathematik dem Kandidaten helfen?
Kapitel 5
© Beutelspacher
Dezember 2004
Seite 43
Das Ziegenproblem: Ask Marylin!
Das Ziegenproblem wurde durch folgendes Ereignis bekannt:
Marylin vos Savant, angeblich der Mensch mit dem höchsten
Intelligenzquotient, hat in den U.S.A. eine Kolumne („Ask Marylin“),
in der sie alle möglichen kniffligen Fragen beantwortet.
Auf das Ziegenproblem antwortete sie, dass Wechseln die
Gewinnchancen erhöht, und zwar auf das Doppelte.
Das Ergebnis war eine heiße Diskussionen, in der Marilyn heftigst
angegriffen wurde. Teilweise „wissenschaftlich“ („offensichtlich hat
bei zwei verbleibenden Möglichkeiten jede die gleiche Chance“),
teilweise unwissenschaftlich („Frauen und Mathematik ...“)
ABER ...
Kapitel 5
© Beutelspacher
Dezember 2004
Seite 44
Das Ziegenproblem: Marylin hat Recht!
5.3.2 Satz. Wenn man bei seiner Entscheidung bleibt, hat man eine
Gewinnchance von (nur) 1/3.
Wenn man wechselt, gewinnt man mit der Wahrscheinlichkeit 2/3.
Beweis. Wir nehmen an, dass der Kandidat jede der drei Türen mit
Wahrscheinlichkeit 1/3 wählt (Laplace-Verteilung).
(a) Der Kandidat wechselt nicht. Dann wählt er eine Tür und hat mit
Wahrscheinlichkeit 1/3 das Auto.
Kapitel 5
© Beutelspacher
Dezember 2004
Seite 45
Das Ziegenproblem: Der Kandidat wechselt die Tür
(b) Der Kandidat wechselt. Wenn er (mit Wahrscheinlichkeit 1/3) die
Autotür gewählt hat, verliert er.
Mit Wahrscheinlichkeit 2/3 hat er eine Ziegentür gewählt.
Der Showmaster öffnet die andere Ziegentür!
Das heißt: Wechseln bringt den Kandidaten zwangsläufig zur
Autotür!
Literatur: G.v. Randow: Das Ziegenproblem. rororo.
Kapitel 5
© Beutelspacher
Dezember 2004
Seite 46
Das Geburtstagsparadox
Frage 1: Wie groß muss eine Gruppe von Personen sein, dass die
Wahrscheinlichkeit > ½ ist, dass zwei dieser Personen am gleichen
Tag des Jahres Geburtstag haben?
Kapitel 5
© Beutelspacher
Dezember 2004
Seite 47
Das Geburtstagsparadox II
Frage 2: Am 29. 6. 1995 ging folgende Meldung durch die Presse:
„(dpa) Zum ersten Mal in der 40jährigen Geschichte des deutschen
Zahlenlottos wurden zwei identische Gewinnreihen festgestellt. Am
21. Juni dieses Jahres kam im Lotto am Mittwoch in der Ziehung A
die Gewinnreihe 15-25-27-30-42-48 heraus. Genau die selben
Zahlen wurden bei der 1628. Ausspielung im Samstagslotto schon
einmal gezogen, nämlich am 20. Dezember 1986. Welch ein
Lottozufall: Unter den 49 Zahlen sind fast 14 Millionen verschiedene
Sechserreihen möglich.“
Ist das wirklich so unwahrscheinlich?
Kapitel 5
© Beutelspacher
Dezember 2004
Seite 48
Modellierung des Geburtstagsproblems
Wir stellen uns n Fächer vor. Dies ist die Anzahl aller Möglichkeiten.
Bei den Geburtstagen ist n = 365 (Anzahl der möglichen
Geburtstage). Beim Lotto ist n  14 Millionen (Anzahl der möglichen
Ziehungen).
Nun werden die Fächer sukzessiv zufällig besetzt.
Frage: Wann wird das erste Fach doppelt besetzt, d.h. wann tritt die
erste Kollision auf ?
Xn = Zeitpunkt der ersten Kollision beim sukzessiven, rein zufälligen
Besetzen von n Fächern.
Kapitel 5
© Beutelspacher
Dezember 2004
Seite 49
Ergebnis zum Geburtstagsparadox
5.3.3 Satz. P(Xn  k+1) = n(n–1)(n–2)...(n–k+1) / nk.
Dies ist die Wahrscheinlichkeit, dass bis zur (k+1)-ten Belegung
noch keine Kollision aufgetreten ist.
Beweis. Wir gehen davon aus, dass alle Belegungen der Fächer mit
k Objekten gleichwahrscheinlich ist (Laplace-Modell).
Dann ist n(n–1)(n–2)...(n–k+1) die Anzahl der Belegungen ohne
Kollision und nk ist die Anzahl aller Belegungen.
Die Aussage des Satz ergibt sich jetzt durch Satz 5.3.1
(„Wahrscheinlichkeit = Anzahl der günstigen Fälle durch Anzahl der
möglichen Fälle“). 
Kapitel 5
© Beutelspacher
Dezember 2004
Seite 50
Folgerung und Anwendungen
5.3.4 Folgerung. P(Xn  k) = 1 – n(n–1)(n–2)...(n–k+1) / nk.
Dies ist die Wahrscheinlichkeit, dass bis zur k-ten Belegung
mindestens eine Kollision aufgetreten ist.
Beispiel 1: n = 365. P(Xn  22)  0,4757; P(Xn  23)  0,5073;
P(Xn  26)  0,5982; P(Xn  40)  0,8912; P(Xn  60)  0,99412.
D.h.: Bei 60 Personen ist die Wahrscheinlichkeit über 99%, dass
zwei am gleichen Tag Geburtstag haben.
Beispiel 2: n = 13983816. P(Xn  3500)  0,3546; P(Xn  4500) 
0,5152; P(Xn  5500)  0,6609; P(Xn  6500)  0,7792.
Kapitel 5
© Beutelspacher
Dezember 2004
Seite 51
Zeitpunkt der ersten Kollision
5.3.5 Satz. Bei einer sukzessiven, rein zufälligen Besetzung von n
Fächer ist der Zeitpunkt der ersten Kollision etwa n.
Kapitel 5
© Beutelspacher
Dezember 2004
Seite 52
5.4 Der Erwartungswert
Mit dem Begriff des Erwartungswerts kann man u.a. Probleme des
folgenden Typs lösen:
Sie spielen folgendes Spiel: Sie werfen eine Münze 4 mal. Wenn
jedesmal Kopf erscheint, gewinnen Sie 20 Euro, wenn in genau 3
Würfen Kopf erscheint, gewinnen Sie 10 Euro.
Der Einsatz pro Spiel beträgt 4 Euro.
Würden Sie ein solches Spiel auf Dauer spielen?
Kapitel 5
© Beutelspacher
Dezember 2004
Seite 53
Allgemeinere Fragestellung
Wir stellen uns ein Glücksrad vor mit den Sektoren w1, w2, ..., ws.
Wenn der Zeiger im Sektor wi stehen bleibt, erhält man den Gewinn
X(wi).
Wir spielen das Spiel n mal. Dabei bleibt der Zeiger h1 mal im
Sektor w1, h2 mal im Sektor w2, ..., hs mal im Sektor ws stehen.
Dann ist die durchschnittliche Auszahlung pro Spiel gleich
( h1  X(w1) + h2  X(w2) +...+ hs  X(ws) ) / n
= X(w1)  h1/n + X(w2)  h2/n +...+ X(ws)  hs/n .
Kapitel 5
© Beutelspacher
Dezember 2004
Seite 54
Definition Erwartungswert
Wenn man (für großes n) die relative Häufigkeit hi/n durch die
Wahrscheinlichkeit p(wi) beschreibt, wird der vorige Ausdruck zu:
X(w1)  p(w1) + X(w2)  p(w2) +...+ X(ws)  p(ws) .
Das ist die auf lange Sicht erwartete Auszahlung pro Spiel.
Definition. Sei W = {w1, w2, ..., ws} ein endlicher Grundraum mit
Wahrscheinlichkeitsverteilung P, und sei X eine Zufallsvariable.
Dann nennt man die Zahl
E(X) = X(w1)  p(w1) + X(w2)  p(w2) +...+ X(ws)  p(ws)
den Erwartungswert der Zufallsvariablen X.
Kapitel 5
© Beutelspacher
Dezember 2004
Seite 55
Beispiele
Beispiel 1: einfaches Würfeln. Sei X(w) die Augenzahl beim Wurf w.
Dann ist
E(X) = 1  1/6 + 2  1/6 + 3  1/6 + 4  1/6 + 5  1/6 + 6  1/6 = 3,5.
Beispiel 2: Eingangsbeispiel. Wir fassen W = {0,1}4 als
Laplaceschen Wahrscheinlichkeitsraum auf, d.h. jedes
Elementarereignis hat Wahrscheinlichkeit 1/16.
X(w) ist der Gewinn bzw. Verlust (= Auszahlung – Einzahlung).
Dann ist einmal X(w) = 16 (= 20–4), viermal X(w) = 6 (= 10–4),
sonst X(w) = –4.
Also E(X) = (1  16 + 4  6 + 11  –4) / 16 = – ¼.
Kapitel 5
© Beutelspacher
Dezember 2004
Seite 56
Satz über den Erwartungswert
5.4.1 Satz. Seien X, Y Zufallsvariablen auf W,
und sei A  W ein Ereignis.
Dann gelten die folgenden Aussagen:
(a) E(X + Y) = E(X) + E(Y) („Additivität“).
(b) E(aX) = a  E(X) („Homogenität“).
(c) Wenn X  Y (das bedeutet X(w)  Y(w) für alle w  W), dann
gilt auch E(X)  E(Y) („Monotonie“).
(d) E( IA) = P(A).
Kapitel 5
© Beutelspacher
Dezember 2004
Seite 57
Beweis (a)
Beweis. (a) Es gilt
E(X + Y)
= (X+Y)(w1)  p(w1) + (X+Y)(w2)  p(w2) +...+ (X+Y)(ws)  p(ws)
= X(w1)  p(w1) + X(w2)  p(w2) +...+ X(ws)  p(ws)
+ Y(w1)  p(w1) + Y(w2)  p(w2) +...+ Y(ws)  p(ws)
= E(X) + E(Y).
(b) und (c) werden ganz entsprechend bewiesen (ÜA).
Kapitel 5
© Beutelspacher
Dezember 2004
Seite 58
Beweis (d)
(d) Sei A = {w1, w2, ..., wt}.
Nach Definition ist IA(wi) = 1 für i  t (d.h. w  W) und = 0 sonst.
Also
E(IA) = 1  p(w1) + 1  p(w2) +...+ 1  p(wt)
= p(w1) + p(w2) +...+ p(wt) = P(A). 
Kapitel 5
© Beutelspacher
Dezember 2004
Seite 59
Folgerung
5.4.2 Folgerung. Seien X, Y, Z, ... Zufallsvariablen auf W. Dann gilt
E(X + Y + Z + ...) = E(X) + E(Y) + E(Z) + ...
Beweis. Wir führen den Beweis für drei Zufallsvariablen X, Y, Z.
Wir wenden zwei Mal 5.4.1 (a) an und erhalten:
E(X + Y + Z) = E( (X+Y) + Z) = E(X+Y) + E(Z) = E(X) + E(Y) + E(Z).
Im allgemeinen beweist man dies mit Induktion nach der Anzahl n
der Zufallsvariablen. 
Kapitel 5
© Beutelspacher
Dezember 2004
Seite 60
Erwartungswert einer Zählvariable
5.4.3 Satz. Seien A, B, C, ... Ereignisse (d.h. A, B, C  W), und sei
X die entsprechende Zählvariable, d.h.
X = IA + IB + IC + ...
Dann gilt
E(X) = P(A) + P(B) + P(C) + ...
Wenn die Ereignisse A, B, C, die gleiche Wahrscheinlichkeit p
besitzen, so ist
E(X) = n  p,
wobei n die Anzahl der betrachteten Ereignisse ist.
Kapitel 5
© Beutelspacher
Dezember 2004
Seite 61
Beweis
Beweis. Nach 5.4.1 (d) gilt
E(IA) = P(A), E(IB) = P(B), E(IC) = P(C), ...
Nach 5.4.2 gilt
E(IA + IB + IC +...) = E(IA) + E(IB) + E(IC) + ...
Zusammen folgt die Behauptung:
E(IA + IB + IC +...) = E(IA) + E(IB) + E(IC) + ... = P(A) + P(B) + P(C) + ... 
Kapitel 5
© Beutelspacher
Dezember 2004
Seite 62
Beispiel
Wir betrachten die Menge aller Permutationen der Menge {1, ..., n}.
Definition. Eine Permutation p hat den Fixpunkt j, falls p(j) = j ist.
5.4.4 Hilfssatz. (a) Es gibt genau (n–1)! Permutationen mit dem
Fixpunkt j.
(b) Die Wahrscheinlichkeit, dass eine zufällig ausgewählte
Permutation den Fixpunkt j hat, ist 1/n.
Beweis. (a) Jede Permutation mit Fixpunkt j kann auf den
restlichen n–1 Elementen eine beliebige Permutation sein.
(b) Insgesamt gibt es n! Permutationen, also ist der Anteil der
Permutationen mit Fixpunkt j genau 1/n. 
Kapitel 5
© Beutelspacher
Dezember 2004
Seite 63
Die Wahrscheinlichkeit für einen Fixpunkt
5.4.5 Satz. Die Zufallsvariable X beschreibe die Anzahl der
Fixpunkte einer zufällig gewählten Permutation. Dann gilt: E(X)=1.
Mit anderen Worten: Wenn man eine Permutation rein zufällig
aussucht, hat diese im Mittel genau einen Fixpunkt.
Beweis. Wir betrachten den Grundraum W aller Permutationen und
gehen davon aus, dass alle die gleiche Wahrscheinlichkeit haben.
Das Ereignis Aj „eine Permutation hat den Fixpunkt j“ hat nach
5.4.4 die Wahrscheinlichkeit 1/n.
Dies gilt für alle j  {1, ..., n}, also folgt nach 5.4.3 für die
Zählvariable X („es tritt einer der Fixpunkte 1, 2, ..., n auf“)
E(X) = P(A1) + P(A2) + ... + P(An) = n1/n = 1. 
Kapitel 5
© Beutelspacher
Dezember 2004
Seite 64
Stichproben
Problem: Eine Urne enthält r rote und s schwarze Kugeln.
Aus der Urne werden nacheinander zufällig n Kugeln gezogen.
Frage: Wie groß ist die Wahrscheinlichkeit, dass diese Stichprobe
genau k rote Kugeln enthält?
Anwendung: Rote Kugeln entsprechen defekten Teilen einer
Warenlieferung. Man möchte aufgrund der Stichprobe Rückschlüsse
auf die Gesamtzahl der defekten Teile ziehen.
Kapitel 5
© Beutelspacher
Dezember 2004
Seite 65
Modellierung
Wir nummerieren die Kugeln: 1, ...., r+s.
Dabei seien die Kugeln 1, ..., r die roten Kugeln,
also die Kugeln r+1, ..., r+s die schwarzen.
Als Ergebnisraum bietet sich an:
W = {(a1, a2,..., an)  ai  {1, ..., r+s}, ai  aj},
wobei ai die Nummer der i-ten gezogenen Kugel ist.
Dann ist W = (r+s)(r+s–1) ...  (r+s–n+1).
(Für die erste Kugel stehen r+s Werte zur Verfügung, für die zweite
nur noch r+s–1. Usw. für die n-te nur noch r+s–n+1.)
Kapitel 5
© Beutelspacher
Dezember 2004
Seite 66
Fortsetzung Modellierung
Wir stellen uns vor, dass es sich um einen Laplaceschen
Wahrscheinlichkeitsraum handelt (die Ziehungen erfolgen rein
zufällig!). Daher gilt für jedes Ereignis A  W:
P(A) = A / W = A / (r+s)(r+s–1)...(r+s–n+1).
Die Teilmenge
Aj = {(a1, a2,..., an)  aj  r}
beschreibt genau das Ereignis „die j-te Kugel ist rot“.
Kapitel 5
© Beutelspacher
Dezember 2004
Seite 67
Die Wahrscheinlichkeit dafür, dass die j-te Kugel rot ist
5.4.6 Hilfssatz. P(Aj) = r/(r+s) für alle j.
Mit anderen Worten: Die Ereignisse A1, A2, ..., An haben alle die
gleiche Wahrscheinlichkeit.
1. Beweis. Jede der r+s Kugeln hat die gleiche Wahrscheinlichkeit,
als j-te gezogen zu werden.
Dafür, dass diese rot ist, gibt es r Möglichkeiten.
2. Beweis. Wie viele Möglichkeiten gibt es, n Kugeln zu ziehen, so
dass die j-te rot ist? Dazu legen wir zuerst die j-te fest (r Möglichkt.).
Die anderen n–1 Kugeln sind beliebig.
Also ist die Gesamtzahl r(r+s–1) ...  (r+s–n+1).
Mit W = (r+s)(r+s–1)...(r+s–n+1) folgt die Behauptung.
Kapitel 5
© Beutelspacher
Dezember 2004
Seite 68
Die hypergeometrische Verteilung
Die Zufallsvariable X = IA1 + IA2 + ... + IAn beschreibt die Anzahl der roten
Kugeln beim n-maligen Ziehen ohne Zurücklegen.
Die Verteilung (d.h. die Wahrscheinlichkeiten P(X = k)) dieser
Zufallsvariablen heißt die hypergeometrische Verteilung.
5.4.7 Satz. (a) E(X) = nr/(r+s).
(b) P(X=k) =
Kapitel 5
r  s 
 

k n  k
  

r  s


 n 


© Beutelspacher
Dezember 2004
Seite 69
Beweis
Beweis. (a) folgt aus 5.4.2.
(b) (X = k) bedeutet, dass genau k der Ereignisse A1, ..., An eintreten.
Wir zählen die Anzahl dieser Möglichkeiten:
n
Es gibt   Möglichkeiten für die Stellen, an denen die roten Kugeln stehen.
k
Diese werden durch verschiedene Nummern  r besetzt.
Dafür gibt es r(r–1)...(r–k+1) Möglichkeiten.
Nun werden die restlichen n–k Stellen aus dem Bereich der schwarzen
Kugeln ausgewählt. Dafür gibt es s(s–1)...(s–(n–k)+1) Möglichkeiten.
Multiplizieren, durch W teilen, ausrechnen!  
Kapitel 5
© Beutelspacher
Dezember 2004
Seite 70
Herunterladen