Kapitel 5 Wahrscheinlichkeit Inhalt 5.1 Grundbegriffe W, X, ... 5.2 Wahrscheinlichkeitsräume (W, P) 5.3 Das Laplace-Modell P(A) = A/W 5.4 Erwartungswert E(X) Literatur: N. Henze: Stochastik für Einsteiger (die erste Hälfte). A. Engel: Wahrscheinlichkeitsrechnung und Statistik Kapitel 5 © Beutelspacher Dezember 2004 Seite 2 5.1 Zufallsexperimente Beispiele: Münzwurf, Würfeln, ... Wir sprechen von einem (idealen) Zufallsexperiment, wenn die folgenden Bedingungen erfüllt sind: • Versuchsbedingungen klar definiert. Zum Beispiel: Auswahl des Würfels, ...) • Menge W der Ergebnisse (Ausgänge): vor der Durchführung bekannt. Zum Beispiel: = {1, 2, 3, 4, 5, 6}. • Das Experiment kann beliebig oft unter den gleichen Bedingungen wiederholt werden. Kapitel 5 © Beutelspacher Dezember 2004 Seite 3 Beispiele für Zufallsexperimente • Münzwurf W = {Kopf, Zahl} oder W = {K, Z} oder W = {0, 1}. • Anzahl der Würfe bis zur ersten Sechs W = {1, 2, 3, 4, ...} • In einer Box liegen vier mit 1, 2, 3, 4 beschriftete Kugeln; zwei Kugeln werden mit einem Griff gezogen. W = { {1,2}, {1,3}, {1,4}, {2,3}, {2,4}, {3,4} }. • Zweimaliges Werfen mit einem Würfel. W = { (1,1), (1,2), (1,3), ..., (2,1), (2,2), ..., (3,1), ..., (6,6)}. • Lotto 6-aus-49 W = alle 6-elementige Teilmengen von {1, 2, 3, ..., 49}. Kapitel 5 © Beutelspacher Dezember 2004 Seite 4 Notation W = {w1, w3, w3, ...} („omega“) heißt Ergebnismenge (manchmal auch Grundraum). Wenn man das Experiment n mal durchführt, hat man als Ergebnismenge die Menge W W W ... W bzw. wenn die i-te Wi Ergebnismenge vom Index i abhängt: W1 W2 W3 ... Wn . Kapitel 5 © Beutelspacher Dezember 2004 Seite 5 Ereignisse In vielen Situationen interessieren nicht alle Ausgänge, sondern nur spezielle. Beispiele: • Beim Würfeln interessiert nur, ob man eine 6 würfelt. • Beim Würfeln mit zwei Würfeln kann eventuell nur interessieren, ob die Summe der Augenzahlen mindestens 8 ist. • Beim dreimaligen Werfen einer Münze interessiert nur, ob zwei aufeinanderfolgende Würfe das gleiche Ergebnis haben. Kapitel 5 © Beutelspacher Dezember 2004 Seite 6 Definition: Ereignis Definition: Ein Ereignis ist eine Teilmenge von W. D.h. in dieser Teilmenge werden die interessierenden Ausgänge zusammengefasst. Ereignisse werden üblicherweise mit großen lateinischen Buchstaben A, B, ... Bezeichnet. {} = : unmögliches Ereignis {w}: Elementarereignis (w W). Kapitel 5 © Beutelspacher Dezember 2004 Seite 7 Rechnen mit Ereignissen Da Ereignisse Teilmengen von W sind, kann man den Durchschnitt A B, die Vereinigung A B, die Differenz A \ B der Ereignisse A und B bilden. A := W \ A: Gegenereignis, Komplement von A Ereignisse A, B unvereinbar, falls A B = {}. Ereignisse A1, A2, A3, ..., An unvereinbar, falls je zwei der Mengen disjunkt sind. Schreibweise: S Ai = A1 + A2 + ... + An := A1 A2 ... An für unvereinbare Ereignisse Ai. Kapitel 5 © Beutelspacher Dezember 2004 Seite 8 Beispiel Zweimaliges Würfeln mit einem Würfel Ereignis A: Der erste Wurf ist eine 5. A = {(5,1), (5,2), (5,3), (5,4), (5,5), (5,6)}. Ereignis B: Die Augenzahl aus beiden Würfen ist mindestens 9. B = {(3,6), (4,5), (4,6), (5,4), (5,5), (5,6), (6,3), (6,4), (6,5), (6,6)}. A B = {(5,4), (5,5), (5,6)}. A \ B = {(5,1), (5,2), (5,3)}. B \ A = {(3,6), (4,5), (4,6), (6,3), (6,4), (6,5), (6,6)}L Kapitel 5 © Beutelspacher Dezember 2004 Seite 9 Erinnerung Seien A, B, C Ereignisse. Dann gelten die folgenden Gesetze: A B = B A, A B = B A Kommutativgesetz (A B) C = A (B C), (A B) C = A (B C) Assoziativges. A (B C) = (A B) (A C) Distributivgesetz A B = A B, A B = A B Regeln von de Morgan A1 A2 ... An = A1 A2 ... An . Kapitel 5 © Beutelspacher Dezember 2004 Seite 10 Zufallsvariable Definition. Sei W ein Grundraum. Eine Zufallsvariable ist eine Abbildung X: W R. Vorstellung: Jedem Ausgang w eines Zufallsexperiments wird eine reelle Zahl X(w) zugeordnet („Realisierung der Zufallsvariablen zum Ausgang w“). Beispiel: Bei einem Glücksspiel ist X(w) der Gewinn bzw. Verlust beim Ausgang w des Spiels. Bem. 1. Eine Zufallsvariable ist keine Variable, sondern eine Funktion. 2. Sie wird nicht mit g, ... bezeichnet, sondern mit X, Y, ... Kapitel 5 © Beutelspacher Dezember 2004 Seite 11 Beispiel Zweimaliges Würfeln: W = {(1,1), (1,2), ..., (6,6)} = {(i,j) i, j {1, 2, 3, 4, 5, 6}}. X(w) = i + j, falls w = (i,j) (i: Augenzahl des ersten Wurf, j: Augenzahl des zweiten Wurfs). Beobachtung: Aus der Realisierung X(w) kann man im allgemeinen w nicht zurückgewinnen. Zum Beispiel haben die drei Ausgänge (1,3), (2,2), (3.1) die Realisierung 4. Kapitel 5 © Beutelspacher Dezember 2004 Seite 12 Wichtige (und schwierige ...) Schreibweise Wir schreiben {X = k} := {w W X(w) = k}. Das ist das Ereignis, dass X den Wert k annimmt. Beispiel (zweifaches Würfeln): {X = 4} = {(1,3), (2,2), (3,1)}. Wir können die Ereignisse {X = 2}, {X = 3}, ..., {X = 12} wieder als Elementarereignisse eines Experiments auffassen, bei dem nicht w, sondern X(w) als Ausgang angesehen wird. Kapitel 5 © Beutelspacher Dezember 2004 Seite 13 Beispiele Zweimaliges Würfeln • Augensumme ist 9: {X = 9} • Augensumme ist mindestens 10: {X = 10} + {X = 11} + {X = 12} • Augensumme ist höchstens 5: {X = 2} + {X = 3} + {X = 4} + {X = 5}. Kapitel 5 © Beutelspacher Dezember 2004 Seite 14 Rechnen mit Zufallsvariablen Aus einer bzw. zwei Zufallsvariablen kann man neue Zufallsvariablen machen. Seien dazu X und Y Zufallsvariablen, d.h. Abbildungen von W R. 1. Produkt einer Zufallsvariablen mit einer reellen Zahl. Die Abbildung aX: W R, die definiert ist durch (aX)(w) := aX(w) ist eine Zufallsvariable. 2. Summe zweier Zufallsvariablen. Die Abbildung X+Y : W R, die definiert ist durch (X+Y)(w) := X(w)+Y(w) ist eine Zufallsvariable. 3. Entsprechend: Differenz, Produkt, Maximum, Minimum. Kapitel 5 © Beutelspacher Dezember 2004 Seite 15 Beispiel Zweifaches Würfeln Sei w = (i, j), X(w) = i (Augenzahl beim ersten Wurf), Y(w) = j (Augenzahl beim zweiten Wurf). Dann ist X+Y = Summe der Augenzahlen max(X, Y) = höchste Augenzahl min(X, Y) = niedrigste Augenzahl X–Y = Differenz des zweiten vom ersten Wurf (X+Y)/2 = Durchschnitt der beiden Würfe Kapitel 5 © Beutelspacher Dezember 2004 Seite 16 Indikatorfunktion Definition. Sei A ein Ereignis, d.h. eine Teilmenge von W. Die Indikatorfunktion IA ist die Zufallsvariable, die 1 ist, wenn das Ergebnis w zu A gehört, und 0 sonst. Das heißt IA(w) = 1, falls w W, IA(w) = 0, falls w W. Die Realisierung von IA gibt an, ob das Ereignis eingetreten ist. Beispiel: Sei A das Ereignis, beim einfachen Würfeln eine gerade Zahl zu würfeln. Dann ist IA(1) = IA(3) = IA(5) = 0, IA(2) = IA(4) = IA(6) = 1. Kapitel 5 © Beutelspacher Dezember 2004 Seite 17 Hilfssatz über Indikatorfunktionen 5.1.1 Hilfssatz. Sei X eine Zufallsvariable, und seien A und B Ereignisse. Dann gilt IAB = IA IB. In Worten: Die Indikatorfunktion des Durchschnitts zweier Ereignisse ist gleich dem Produkt der einzelnen Indikatorfunktionen. 5.1.2 Folgerung. IA = IA IA. Beweis der Folgerung: Setze B = A. Dann ist A B = A A = A. Kapitel 5 © Beutelspacher Dezember 2004 Seite 18 Beweis des Hilfssatzes Beweis. Sei w ein Ergebnis. Wir unterscheiden zwei Fälle. 1. Fall: w A B. Dann ist IA B(w) = 1. Andererseits ist IA(w) = 1 und I B(w) = 1, da w sowohl in A als auch in B liegt. Somit ist auch (IA I B)(w) = IA(w)I B(w) = 11 = 1. Also gilt L.S. = R.S. 2. Fall: w A B. Dann ist IA B(w) = 0. Ferner ist w A oder w B. Somit ist IA(w) = 0 oder I B(w) = 0. Also ist in jedem Fall (IA I B)(w) = IA(w)I B(w) = 0. Also ist auch im 2. Fall L.S. = R.S. Kapitel 5 © Beutelspacher Dezember 2004 Seite 19 Zählvariablen Sei W ein Grundraum, und seien A, B, C, ... Ereignisse. Problem: Wir wollen beschreiben, wie oft eines der Ereignisse A, B, C, ... auftritt. Dies wird durch die folgende Zufallsvariable X beschrieben: X = IA + IB + IC + ... (Denn: Wenn wir die rechte Seite auf ein Ergebnis w anwenden, erhalten wir bei einem einzelnen Summanden eine 1, wenn w zu diesem Ereignis gehört, und sonst eine 0. Also X(w) die Anzahl der Ereignisse, zu denen w gehört.) Kapitel 5 © Beutelspacher Dezember 2004 Seite 20 Beispiel In vielen Situationen interessiert die Anzahl der „Treffer“. Beispiele: Würfeln (Treffer: 6, Niete: alles andere), Münzwurf (Treffer: Kopf, Niete: Zahl), Lotto (Treffer: 6-er, Niete: alles andere), zweimaliges Würfeln (Treffer: Augenzahl 8, Niete: Augenzahl < 8). Modellierung: Wir beschreiben einen Treffer durch die Zahl 1, eine Niete durch 0. Dann ist die Ergebnismenge (bei n Grundexperimenten): W = {0,1}n = {(a1, a2, ..., an) ai {0,1}}. X = a1 + a2 + ... + an ist die Zufallsvariable, die die Anzahl der Treffer angibt. Kapitel 5 © Beutelspacher Dezember 2004 Seite 21 Relative Häufigkeit Um die Chancen eines Zufallsexperiments abzuschätzen, führt man es häufig durch. Beispiel: Werfen einer realen Münze (Zahl: 1, Kopf: 0): 1011000111 11101100011 0100111010 0000011011 0000110110 Relative Häufigkeit für das Auftreten einer 1 nach 10, 20, ... Versuchen: 0,6 0,65 0,6 0,55 0,52 Man hat den Eindruck, dass sich die relativen Häufigkeiten „stabilisieren“. Kapitel 5 © Beutelspacher Dezember 2004 Seite 22 Definition relative Häufigkeit Definition. Wir führen ein Zufallsexperiment n mal durch. Wir wollen wissen, „wie häufig“ der Ausgang zu einem Ereignis A gehört. Angenommen, das Experiment liefert die Ausgänge a1, a2, ..., an. Dann ist die relative Häufigkeit bezüglich dieser Experimente definiert durch r = rn(A) = {i ai A} / n. Rezept: Zähle, wie oft der Ausgang in A liegt, dividiere durch n. Achtung! Die relative Häufigkeit ist eine empirische Zahl! Kapitel 5 © Beutelspacher Dezember 2004 Seite 23 Eigenschaften der relativen Häufigkeiten • rn 0 für alle Zufallsexperimente und alle Ereignisse („Nichtnegativität“). • Wenn A und B zwei unvereinbare Ereignisse sind, dann gilt rn(A B) = rn(A) + rn(B). („Additivität) • rn(W) = 1 („Normiertheit“) Kapitel 5 © Beutelspacher Dezember 2004 Seite 24 Stabilisierung empirischer Häufigkeiten • Bei vielen Experimenten „hat man das Gefühl“, dass sich die empirischen Häufigkeiten stabilisieren. • Beispiele: Münzwurf, Werfen einer Reißzwecke, Würfeln, ... • Wenn z.B. ein Würfel „auf Dauer“ deutlich mehr als ein Sechstel Sechsen zeigen würde, würde man nicht an einen fairen Würfel glauben. • Dieses Gesetz über die Stabilisierung empirischer Häufigkeiten ist aber nur eine Erfahrungstatsache, kein mathematisches Gesetz! • Alle Versuche, den Zufall mathematisch über den Weg der relativen Häufigkeiten zu beschreiben, sind i.w. gescheitert ... Kapitel 5 © Beutelspacher Dezember 2004 Seite 25 5.2 Wahrscheinlichkeitsräume Definition. Ein (endlicher) Wahrscheinlichkeitsraum (W-Raum) besteht aus einem Grundraum W und einer Abbildung P, die jeder Teilmenge A von W eine reelle Zahl P(A) zuordnet, so dass folgende Gesetze gelten: • P(A) 0 für alle A W. Nichtnegativität • P(A B) = P(A) + P(B), falls A B = {}. Additivität • P(W) = 1. Normiertheit Wir schreiben (W, P). P heißt Wahrscheinlichkeitsverteilung (Wahrscheinlichkeitsmaß) auf W. Die Zahl P(A) heißt die Wahrscheinlichkeit des Ereignisses A. Kapitel 5 © Beutelspacher Dezember 2004 Seite 26 Bemerkungen • Mit diesen Axiomen werden nur „Spielregeln“ im Umgang mit den mathematischen Wahrscheinlichkeiten festgelegt. • Obwohl die Axiome nach dem Vorbild der Eigenschaften der relativen Häufigkeiten gebildet sind, handelt es sich um Aussagen über mathematische Objekte. • Die Axiome ergeben sich nicht zwangsläufig aus der Erfahrung. • Umgekehrt: Bei einer Anwendung muss man überprüfen, ob die realen Bedingungen den mathematischen Axiomen entsprechen. Kapitel 5 © Beutelspacher Dezember 2004 Seite 27 Erste Eigenschaften 5.2.1 Hilfssatz. Sei (W, P) ein Wahrscheinlichkeitsraum. (a) P({}) = 0. (b) P(A B C) = P(A) + P(B) + P(C), falls A, B, C unvereinbar sind. (c) P(A B) = P(A) + P(B) – P(A B) für beliebige Ereignisse A, B. (d) P(A) 1 für alle A. (e) P(A) = 1 – P(A). (f) Wenn A B, dann ist P(A) P(B). Kapitel 5 © Beutelspacher Dezember 2004 Seite 28 Beweis (a) (a) folgt aus der Additivität P(A B) = P(A) + P(B) (falls A B = { }) und der Normiertheit P(W) = 1 der Wahrscheinlichkeitsverteilung P, wenn wir A = { } und B = W setzen: 1 = P(W) = P({ } W) = P({ }) + P(W) = P({ }) + 1, also P({ }) = 0. Kapitel 5 © Beutelspacher Dezember 2004 Seite 29 Beweis (b) (b) folgt durch mehrfaches Ausnutzen der Additivität P(A B) = P(A) + P(B) (falls A B = { }) der Wahrscheinlichkeitsverteilung P: P(A B C) = P((A B) C) = P(A B) + P(C) = P(A) + P(B) + P(C). Kapitel 5 © Beutelspacher Dezember 2004 Seite 30 Beweis (c) (c) Wir zerlegen die Menge A B in die disjunkten Teile A \ B, A B und B \ A. Nach (b) gilt dann P(A B) = P(A \ B) + P(A B) + P(B \ A). Aufgrund der Additivität gilt P(A) = P(A B) + P(A \ B) (denn A = (A B) (A \ B)), P(B) = P(A B) + P(B \ A) (denn B = (B A) (B \ A)). Lösen wir diese beiden Gleichungen nach P(A \ B) bzw. P(B \ A) auf, und setzen das Ergebnis in die obere Gleichung ein, so ergibt sich P(A B) = P(A) + P(B) - P(A B). Kapitel 5 © Beutelspacher Dezember 2004 Seite 31 Beweise (e), (d) und (f) (e) Wir zerlegen den Grundraum W in die disjunkten Teilmengen A und A. Aufgrund der Normiertheit und der Additivität von P folgt: 1 = P(W ) = P(A A) = P(A) + P(A). (d) Da P(A) 0 gilt, folgt aus (e): P(A) = 1 - P(A) 0, also P(A) 1. (f) Wenn A B ist, dann können wir B in die disjunkten Teilmengen A und B \ A zerlegen. Daher ist P(B) = P(A) + P(B \ A). Da P(B \ A) 0 ist, folgt P(B) P(A). Kapitel 5 © Beutelspacher Dezember 2004 Seite 32 Wahrscheinlichkeit von Elementarereignissen Frage: Müssen wir die Wahrscheinlichkeitsverteilung P für jede Teilmenge A von W einzeln definieren? (Bereits bei | W | = 10 wären das 210 = 1024 Teilmengen, für die wir die Wahrscheinlichkeit festlegen müßten!) Antwort: Nein! Es genügt, jedem Elementarereignis {w} eine Wahrscheinlichkeit P({w}) zuzuordnen. Zur Abkürzung: p(w) := P({w}). Die Wahrscheinlichkeit eines Ereignisses A ergibt sich dann wie folgt. 5.2.2 Satz. Sei A ( {}) ein Ereignis im Grundraum W. Dann gilt P(A) = p(w). wA Kapitel 5 © Beutelspacher Dezember 2004 Seite 33 Beweis Beweis. Jedes Ereignis A W besteht aus gewissen Ergebnissen w W. Wir können A wie folgt als Vereinigung von Elementarereignissen {w} schreiben: A= {w}. wA Da die Elementarereignisse disjunkt sind, ergibt sich aufgrund der Additivitätseigenschaft P(A) = P( {w}) = p(w). wA Kapitel 5 wA © Beutelspacher Dezember 2004 Seite 34 5.3 Das Laplace-Modell Idee: Bei vielen Zufallsexperimenten sind alle Elementarexperimente „gleich wahrscheinlich“. Beispiele: Würfeln mit einem „korrekten“ Würfel, Werfen einer „fairen“ Münze. Definition: Sei W = {w1, w2, ..., ws} eine s-elementige Menge, und sei p(w) = 1/s für alle w W. Dann heißt (W, P) ein Laplacescher Wahrscheinlichkeitsraum. Man nennt P die diskrete Gleichverteilung (Laplace-Verteilung). Kapitel 5 © Beutelspacher Dezember 2004 Seite 35 Bemerkungen 5.3.1 Satz. In einem Laplaceschen Wahrscheinlichkeitsraum gilt P(A) = A / s = A / W für alle Ereignisse A. (Beweis. Sei A = {w1, w2, ..., wt}. Dann folgt mit 5.2.2 P(A) = p(w1) + p(w2) + ... + p(wt) = t 1/s = A / s.) Pierre Simon Laplace (1749 – 1827): Professor in Paris. Kapitel 5 © Beutelspacher Dezember 2004 Seite 36 Beispiel: Zweifaches Würfeln Frage: Mit welcher Wahrscheinlichkeit tritt die Augenzahl 5 (oder irgend ein Zahl zwischen 2 und 12) auf? W = {(1,1), ..., (6.6)} = {1, 2, ..., 6} {1, 2, ..., 6} (1,1) (1,2) (1,3) (1,4) (1,5) (1,6) (2,1) (2,2) (2,3) (2,4) (2,5) (2,6) (3,1) (3,2) (3,3) (3,4) (3,5) (3,6) (4,1) (4,2) (4,3) (4,4) (4,5) (4,6) (5,1) (5,2) (5,3) (5,4) (5,5) (5,6) (6,1) (6,2) (6,3) (6,4) (6,5) (6,6) Laplacescher Wahrscheinlichkeitsraum p(w) = 1/36. Kapitel 5 © Beutelspacher Dezember 2004 Seite 37 Beispiel: zweifaches Würfeln. Die Wahrscheinlichkeiten X(w) = i+j für w = (i, j). {X = 5} = {(1,4), (2,3), (3,2), (4,1)}. Also P(X = 5) = 4/36 = 1/9. Im allgemeinen gilt P(X = 2) = 1/36, P(X = 3) = 2/36, P(X = 4) = 3/36, P(X = 5) = 4/36, P(X = 6) = 5/36, P(X = 7) = 6/36, P(X = 8) = 5/36, P(X = 9) = 4/36, P(X = 10) = 3/36, P(X = 11) = 2/36, P(X = 12) = 1/36. Kapitel 5 © Beutelspacher Dezember 2004 Seite 38 Beispiel (Leibniz) Leibniz (Gottfried Wilhelm Leibniz, 1646 – 1716) meinte, dass beim Würfeln mit zwei Würfeln die Augensummen 11 und 12 gleich wahrscheinlich sind. Offenbar betrachtet Leibniz Grundraum W = {(1,1), (1,2), (1,3), (1,4), (1,5), (1,6), (2,2), (2,3), (2,4), (2,5), (2,6), (3,3), (3,4), (3,5), (3,6), (4,4), (4,5), (4,6), (5,5), (5,6), (6,6)} wobei (i,j) interpretiert wird als „ein Würfel zeigt i, der andere j“. Es gibt genau ein Experiment w, das die Realisierung X(w) = 11 und genau ein Experiment, das die Realisierung 12 hat. Aber ... Kapitel 5 © Beutelspacher Dezember 2004 Seite 39 Beispiel (Leibniz): Fortsetzung ... aber es handelt sich nicht um einen Laplaceschen Wahrscheinlichkeitsraum. Das heißt: Nicht alle Elementarereignisse sind gleich wahrscheinlich! Lösung: In unserer Vorstellung müssen wir die Würfel unterscheiden (z.B. einer rot, einer schwarz). Dann gibt es für die Augenzahl 12 nur einen Ausgang (nämlich rot = 6 und schwarz = 6), aber für die Augensumme 11 zwei Ausgänge (rot = 5, schwarz = 6 und rot = 6 und schwarz = 5). Mit anderen Worten: Wenn man die Gleichverteilung anwenden will, muss man den Grundraum W = {1, 2, ..., 6} {1, 2, ..., 6} betrachten. Kapitel 5 © Beutelspacher Dezember 2004 Seite 40 Beispiel (Galilei) Galileo Galilei (1564 – 1642) wurde folgende Frage gestellt: Warum ist beim dreimaligen Würfeln die Augensumme 10 wahrscheinlicher als die Augensumme 9 – obwohl es jeweils gleich viele Kombinationen gibt, nämlich 1 2 6, 1 3 5, 2 2 5, 2 3 4, 1 4 4, 3 3 3 bzw. 1 3 6, 2 2 6, 1 4 5, 2 3 5, 2 4 4, 3 4 4 ??? Mögliche Antworten: (a) Es gibt zwar gleich viele „Kombinationen“, diese haben aber nicht die gleiche Wahrscheinlichkeit. (b) Am besten betrachtet man den zugehörigen Laplaceschen Wahrscheinlichkeitsraum: Kapitel 5 © Beutelspacher Dezember 2004 Seite 41 Beispiel (Galilei). Lösung W = {1, 2, ..., 6} {1, 2, ..., 6} {1, 2, ..., 6}. W = 63 = 216. X(w) = i + j + k, wobei w = (i, j, k) ist. Das Ereignis {X = 9} besteht aus 6 Permutation von 1 2 6, 6 Permutationen von 135, 3 unterscheidbaren Permutation von 2 2 5, 6 Permutationen von 2 3 4, 3 unterscheidbaren Permutationen von 1 4 4, dem Wurf 3 3 3. Also P(X = 9) = 25/216. Andererseits ist P(X = 10) = 27/216. Kapitel 5 © Beutelspacher Dezember 2004 Seite 42 Das Ziegenproblem In einer Spielshow steht der Gewinner am Ende vor folgender Situation: • Vor sich sieht er drei Türen. Er weiß: Hinter einer steht ein Auto, hinter den beiden anderen nur eine Ziege (= Niete). • Er wählt eine Tür – ohne sie zu öffnen. • Dann öffnet der Showmaster eine andere Tür, hinter der eine Ziege steht. • Jetzt fragt der Showmaster den Kandidaten: Wollen sie die von Ihnen gewählte Tür wechseln? Problem: Kann die Mathematik dem Kandidaten helfen? Kapitel 5 © Beutelspacher Dezember 2004 Seite 43 Das Ziegenproblem: Ask Marylin! Das Ziegenproblem wurde durch folgendes Ereignis bekannt: Marylin vos Savant, angeblich der Mensch mit dem höchsten Intelligenzquotient, hat in den U.S.A. eine Kolumne („Ask Marylin“), in der sie alle möglichen kniffligen Fragen beantwortet. Auf das Ziegenproblem antwortete sie, dass Wechseln die Gewinnchancen erhöht, und zwar auf das Doppelte. Das Ergebnis war eine heiße Diskussionen, in der Marilyn heftigst angegriffen wurde. Teilweise „wissenschaftlich“ („offensichtlich hat bei zwei verbleibenden Möglichkeiten jede die gleiche Chance“), teilweise unwissenschaftlich („Frauen und Mathematik ...“) ABER ... Kapitel 5 © Beutelspacher Dezember 2004 Seite 44 Das Ziegenproblem: Marylin hat Recht! 5.3.2 Satz. Wenn man bei seiner Entscheidung bleibt, hat man eine Gewinnchance von (nur) 1/3. Wenn man wechselt, gewinnt man mit der Wahrscheinlichkeit 2/3. Beweis. Wir nehmen an, dass der Kandidat jede der drei Türen mit Wahrscheinlichkeit 1/3 wählt (Laplace-Verteilung). (a) Der Kandidat wechselt nicht. Dann wählt er eine Tür und hat mit Wahrscheinlichkeit 1/3 das Auto. Kapitel 5 © Beutelspacher Dezember 2004 Seite 45 Das Ziegenproblem: Der Kandidat wechselt die Tür (b) Der Kandidat wechselt. Wenn er (mit Wahrscheinlichkeit 1/3) die Autotür gewählt hat, verliert er. Mit Wahrscheinlichkeit 2/3 hat er eine Ziegentür gewählt. Der Showmaster öffnet die andere Ziegentür! Das heißt: Wechseln bringt den Kandidaten zwangsläufig zur Autotür! Literatur: G.v. Randow: Das Ziegenproblem. rororo. Kapitel 5 © Beutelspacher Dezember 2004 Seite 46 Das Geburtstagsparadox Frage 1: Wie groß muss eine Gruppe von Personen sein, dass die Wahrscheinlichkeit > ½ ist, dass zwei dieser Personen am gleichen Tag des Jahres Geburtstag haben? Kapitel 5 © Beutelspacher Dezember 2004 Seite 47 Das Geburtstagsparadox II Frage 2: Am 29. 6. 1995 ging folgende Meldung durch die Presse: „(dpa) Zum ersten Mal in der 40jährigen Geschichte des deutschen Zahlenlottos wurden zwei identische Gewinnreihen festgestellt. Am 21. Juni dieses Jahres kam im Lotto am Mittwoch in der Ziehung A die Gewinnreihe 15-25-27-30-42-48 heraus. Genau die selben Zahlen wurden bei der 1628. Ausspielung im Samstagslotto schon einmal gezogen, nämlich am 20. Dezember 1986. Welch ein Lottozufall: Unter den 49 Zahlen sind fast 14 Millionen verschiedene Sechserreihen möglich.“ Ist das wirklich so unwahrscheinlich? Kapitel 5 © Beutelspacher Dezember 2004 Seite 48 Modellierung des Geburtstagsproblems Wir stellen uns n Fächer vor. Dies ist die Anzahl aller Möglichkeiten. Bei den Geburtstagen ist n = 365 (Anzahl der möglichen Geburtstage). Beim Lotto ist n 14 Millionen (Anzahl der möglichen Ziehungen). Nun werden die Fächer sukzessiv zufällig besetzt. Frage: Wann wird das erste Fach doppelt besetzt, d.h. wann tritt die erste Kollision auf ? Xn = Zeitpunkt der ersten Kollision beim sukzessiven, rein zufälligen Besetzen von n Fächern. Kapitel 5 © Beutelspacher Dezember 2004 Seite 49 Ergebnis zum Geburtstagsparadox 5.3.3 Satz. P(Xn k+1) = n(n–1)(n–2)...(n–k+1) / nk. Dies ist die Wahrscheinlichkeit, dass bis zur (k+1)-ten Belegung noch keine Kollision aufgetreten ist. Beweis. Wir gehen davon aus, dass alle Belegungen der Fächer mit k Objekten gleichwahrscheinlich ist (Laplace-Modell). Dann ist n(n–1)(n–2)...(n–k+1) die Anzahl der Belegungen ohne Kollision und nk ist die Anzahl aller Belegungen. Die Aussage des Satz ergibt sich jetzt durch Satz 5.3.1 („Wahrscheinlichkeit = Anzahl der günstigen Fälle durch Anzahl der möglichen Fälle“). Kapitel 5 © Beutelspacher Dezember 2004 Seite 50 Folgerung und Anwendungen 5.3.4 Folgerung. P(Xn k) = 1 – n(n–1)(n–2)...(n–k+1) / nk. Dies ist die Wahrscheinlichkeit, dass bis zur k-ten Belegung mindestens eine Kollision aufgetreten ist. Beispiel 1: n = 365. P(Xn 22) 0,4757; P(Xn 23) 0,5073; P(Xn 26) 0,5982; P(Xn 40) 0,8912; P(Xn 60) 0,99412. D.h.: Bei 60 Personen ist die Wahrscheinlichkeit über 99%, dass zwei am gleichen Tag Geburtstag haben. Beispiel 2: n = 13983816. P(Xn 3500) 0,3546; P(Xn 4500) 0,5152; P(Xn 5500) 0,6609; P(Xn 6500) 0,7792. Kapitel 5 © Beutelspacher Dezember 2004 Seite 51 Zeitpunkt der ersten Kollision 5.3.5 Satz. Bei einer sukzessiven, rein zufälligen Besetzung von n Fächer ist der Zeitpunkt der ersten Kollision etwa n. Kapitel 5 © Beutelspacher Dezember 2004 Seite 52 5.4 Der Erwartungswert Mit dem Begriff des Erwartungswerts kann man u.a. Probleme des folgenden Typs lösen: Sie spielen folgendes Spiel: Sie werfen eine Münze 4 mal. Wenn jedesmal Kopf erscheint, gewinnen Sie 20 Euro, wenn in genau 3 Würfen Kopf erscheint, gewinnen Sie 10 Euro. Der Einsatz pro Spiel beträgt 4 Euro. Würden Sie ein solches Spiel auf Dauer spielen? Kapitel 5 © Beutelspacher Dezember 2004 Seite 53 Allgemeinere Fragestellung Wir stellen uns ein Glücksrad vor mit den Sektoren w1, w2, ..., ws. Wenn der Zeiger im Sektor wi stehen bleibt, erhält man den Gewinn X(wi). Wir spielen das Spiel n mal. Dabei bleibt der Zeiger h1 mal im Sektor w1, h2 mal im Sektor w2, ..., hs mal im Sektor ws stehen. Dann ist die durchschnittliche Auszahlung pro Spiel gleich ( h1 X(w1) + h2 X(w2) +...+ hs X(ws) ) / n = X(w1) h1/n + X(w2) h2/n +...+ X(ws) hs/n . Kapitel 5 © Beutelspacher Dezember 2004 Seite 54 Definition Erwartungswert Wenn man (für großes n) die relative Häufigkeit hi/n durch die Wahrscheinlichkeit p(wi) beschreibt, wird der vorige Ausdruck zu: X(w1) p(w1) + X(w2) p(w2) +...+ X(ws) p(ws) . Das ist die auf lange Sicht erwartete Auszahlung pro Spiel. Definition. Sei W = {w1, w2, ..., ws} ein endlicher Grundraum mit Wahrscheinlichkeitsverteilung P, und sei X eine Zufallsvariable. Dann nennt man die Zahl E(X) = X(w1) p(w1) + X(w2) p(w2) +...+ X(ws) p(ws) den Erwartungswert der Zufallsvariablen X. Kapitel 5 © Beutelspacher Dezember 2004 Seite 55 Beispiele Beispiel 1: einfaches Würfeln. Sei X(w) die Augenzahl beim Wurf w. Dann ist E(X) = 1 1/6 + 2 1/6 + 3 1/6 + 4 1/6 + 5 1/6 + 6 1/6 = 3,5. Beispiel 2: Eingangsbeispiel. Wir fassen W = {0,1}4 als Laplaceschen Wahrscheinlichkeitsraum auf, d.h. jedes Elementarereignis hat Wahrscheinlichkeit 1/16. X(w) ist der Gewinn bzw. Verlust (= Auszahlung – Einzahlung). Dann ist einmal X(w) = 16 (= 20–4), viermal X(w) = 6 (= 10–4), sonst X(w) = –4. Also E(X) = (1 16 + 4 6 + 11 –4) / 16 = – ¼. Kapitel 5 © Beutelspacher Dezember 2004 Seite 56 Satz über den Erwartungswert 5.4.1 Satz. Seien X, Y Zufallsvariablen auf W, und sei A W ein Ereignis. Dann gelten die folgenden Aussagen: (a) E(X + Y) = E(X) + E(Y) („Additivität“). (b) E(aX) = a E(X) („Homogenität“). (c) Wenn X Y (das bedeutet X(w) Y(w) für alle w W), dann gilt auch E(X) E(Y) („Monotonie“). (d) E( IA) = P(A). Kapitel 5 © Beutelspacher Dezember 2004 Seite 57 Beweis (a) Beweis. (a) Es gilt E(X + Y) = (X+Y)(w1) p(w1) + (X+Y)(w2) p(w2) +...+ (X+Y)(ws) p(ws) = X(w1) p(w1) + X(w2) p(w2) +...+ X(ws) p(ws) + Y(w1) p(w1) + Y(w2) p(w2) +...+ Y(ws) p(ws) = E(X) + E(Y). (b) und (c) werden ganz entsprechend bewiesen (ÜA). Kapitel 5 © Beutelspacher Dezember 2004 Seite 58 Beweis (d) (d) Sei A = {w1, w2, ..., wt}. Nach Definition ist IA(wi) = 1 für i t (d.h. w W) und = 0 sonst. Also E(IA) = 1 p(w1) + 1 p(w2) +...+ 1 p(wt) = p(w1) + p(w2) +...+ p(wt) = P(A). Kapitel 5 © Beutelspacher Dezember 2004 Seite 59 Folgerung 5.4.2 Folgerung. Seien X, Y, Z, ... Zufallsvariablen auf W. Dann gilt E(X + Y + Z + ...) = E(X) + E(Y) + E(Z) + ... Beweis. Wir führen den Beweis für drei Zufallsvariablen X, Y, Z. Wir wenden zwei Mal 5.4.1 (a) an und erhalten: E(X + Y + Z) = E( (X+Y) + Z) = E(X+Y) + E(Z) = E(X) + E(Y) + E(Z). Im allgemeinen beweist man dies mit Induktion nach der Anzahl n der Zufallsvariablen. Kapitel 5 © Beutelspacher Dezember 2004 Seite 60 Erwartungswert einer Zählvariable 5.4.3 Satz. Seien A, B, C, ... Ereignisse (d.h. A, B, C W), und sei X die entsprechende Zählvariable, d.h. X = IA + IB + IC + ... Dann gilt E(X) = P(A) + P(B) + P(C) + ... Wenn die Ereignisse A, B, C, die gleiche Wahrscheinlichkeit p besitzen, so ist E(X) = n p, wobei n die Anzahl der betrachteten Ereignisse ist. Kapitel 5 © Beutelspacher Dezember 2004 Seite 61 Beweis Beweis. Nach 5.4.1 (d) gilt E(IA) = P(A), E(IB) = P(B), E(IC) = P(C), ... Nach 5.4.2 gilt E(IA + IB + IC +...) = E(IA) + E(IB) + E(IC) + ... Zusammen folgt die Behauptung: E(IA + IB + IC +...) = E(IA) + E(IB) + E(IC) + ... = P(A) + P(B) + P(C) + ... Kapitel 5 © Beutelspacher Dezember 2004 Seite 62 Beispiel Wir betrachten die Menge aller Permutationen der Menge {1, ..., n}. Definition. Eine Permutation p hat den Fixpunkt j, falls p(j) = j ist. 5.4.4 Hilfssatz. (a) Es gibt genau (n–1)! Permutationen mit dem Fixpunkt j. (b) Die Wahrscheinlichkeit, dass eine zufällig ausgewählte Permutation den Fixpunkt j hat, ist 1/n. Beweis. (a) Jede Permutation mit Fixpunkt j kann auf den restlichen n–1 Elementen eine beliebige Permutation sein. (b) Insgesamt gibt es n! Permutationen, also ist der Anteil der Permutationen mit Fixpunkt j genau 1/n. Kapitel 5 © Beutelspacher Dezember 2004 Seite 63 Die Wahrscheinlichkeit für einen Fixpunkt 5.4.5 Satz. Die Zufallsvariable X beschreibe die Anzahl der Fixpunkte einer zufällig gewählten Permutation. Dann gilt: E(X)=1. Mit anderen Worten: Wenn man eine Permutation rein zufällig aussucht, hat diese im Mittel genau einen Fixpunkt. Beweis. Wir betrachten den Grundraum W aller Permutationen und gehen davon aus, dass alle die gleiche Wahrscheinlichkeit haben. Das Ereignis Aj „eine Permutation hat den Fixpunkt j“ hat nach 5.4.4 die Wahrscheinlichkeit 1/n. Dies gilt für alle j {1, ..., n}, also folgt nach 5.4.3 für die Zählvariable X („es tritt einer der Fixpunkte 1, 2, ..., n auf“) E(X) = P(A1) + P(A2) + ... + P(An) = n1/n = 1. Kapitel 5 © Beutelspacher Dezember 2004 Seite 64 Stichproben Problem: Eine Urne enthält r rote und s schwarze Kugeln. Aus der Urne werden nacheinander zufällig n Kugeln gezogen. Frage: Wie groß ist die Wahrscheinlichkeit, dass diese Stichprobe genau k rote Kugeln enthält? Anwendung: Rote Kugeln entsprechen defekten Teilen einer Warenlieferung. Man möchte aufgrund der Stichprobe Rückschlüsse auf die Gesamtzahl der defekten Teile ziehen. Kapitel 5 © Beutelspacher Dezember 2004 Seite 65 Modellierung Wir nummerieren die Kugeln: 1, ...., r+s. Dabei seien die Kugeln 1, ..., r die roten Kugeln, also die Kugeln r+1, ..., r+s die schwarzen. Als Ergebnisraum bietet sich an: W = {(a1, a2,..., an) ai {1, ..., r+s}, ai aj}, wobei ai die Nummer der i-ten gezogenen Kugel ist. Dann ist W = (r+s)(r+s–1) ... (r+s–n+1). (Für die erste Kugel stehen r+s Werte zur Verfügung, für die zweite nur noch r+s–1. Usw. für die n-te nur noch r+s–n+1.) Kapitel 5 © Beutelspacher Dezember 2004 Seite 66 Fortsetzung Modellierung Wir stellen uns vor, dass es sich um einen Laplaceschen Wahrscheinlichkeitsraum handelt (die Ziehungen erfolgen rein zufällig!). Daher gilt für jedes Ereignis A W: P(A) = A / W = A / (r+s)(r+s–1)...(r+s–n+1). Die Teilmenge Aj = {(a1, a2,..., an) aj r} beschreibt genau das Ereignis „die j-te Kugel ist rot“. Kapitel 5 © Beutelspacher Dezember 2004 Seite 67 Die Wahrscheinlichkeit dafür, dass die j-te Kugel rot ist 5.4.6 Hilfssatz. P(Aj) = r/(r+s) für alle j. Mit anderen Worten: Die Ereignisse A1, A2, ..., An haben alle die gleiche Wahrscheinlichkeit. 1. Beweis. Jede der r+s Kugeln hat die gleiche Wahrscheinlichkeit, als j-te gezogen zu werden. Dafür, dass diese rot ist, gibt es r Möglichkeiten. 2. Beweis. Wie viele Möglichkeiten gibt es, n Kugeln zu ziehen, so dass die j-te rot ist? Dazu legen wir zuerst die j-te fest (r Möglichkt.). Die anderen n–1 Kugeln sind beliebig. Also ist die Gesamtzahl r(r+s–1) ... (r+s–n+1). Mit W = (r+s)(r+s–1)...(r+s–n+1) folgt die Behauptung. Kapitel 5 © Beutelspacher Dezember 2004 Seite 68 Die hypergeometrische Verteilung Die Zufallsvariable X = IA1 + IA2 + ... + IAn beschreibt die Anzahl der roten Kugeln beim n-maligen Ziehen ohne Zurücklegen. Die Verteilung (d.h. die Wahrscheinlichkeiten P(X = k)) dieser Zufallsvariablen heißt die hypergeometrische Verteilung. 5.4.7 Satz. (a) E(X) = nr/(r+s). (b) P(X=k) = Kapitel 5 r s k n k r s n © Beutelspacher Dezember 2004 Seite 69 Beweis Beweis. (a) folgt aus 5.4.2. (b) (X = k) bedeutet, dass genau k der Ereignisse A1, ..., An eintreten. Wir zählen die Anzahl dieser Möglichkeiten: n Es gibt Möglichkeiten für die Stellen, an denen die roten Kugeln stehen. k Diese werden durch verschiedene Nummern r besetzt. Dafür gibt es r(r–1)...(r–k+1) Möglichkeiten. Nun werden die restlichen n–k Stellen aus dem Bereich der schwarzen Kugeln ausgewählt. Dafür gibt es s(s–1)...(s–(n–k)+1) Möglichkeiten. Multiplizieren, durch W teilen, ausrechnen! Kapitel 5 © Beutelspacher Dezember 2004 Seite 70