Biostatistik, Sommer 2017 Wahrscheinlichkeitstheorie: Grundbegriffe Prof. Dr. Achim Klenke http://www.aklenke.de 6. Vorlesung: 26.05.2017 1/34 Inhalt 1 Zufallsvariablen 2 Ereignisse 3 Wahrscheinlichkeit Definition Unabhängigkeit 2/34 Zufallsvariablen Definition Eine Zufallsvariable Eine Zufallsvariable X mit Wertebereich W beschreibt die Werte eines Zufallsexperiments. Beispiele: Werfen eines Würfels. X = Augenzahl. Wertebereich W = {1, . . . , 6}. Temperatur um 1200 Uhr. X = Temperatur in Kelvin. W = [0, ∞). Position einer Flaschenpost im Atlantik. X = ebene Koordinaten, W = R2 . Waldsterben: X = Gesundheitszustand eines zufällig gewählten Baumes, W = { gesund, krank, tot }. Bakterienwachstum, X = Anzahl der Bakterien nach einem Tag, W = N0 = {0, 1, 2, . . .}. In den meisten Fällen ist W = R, W = N, oder Teilmenge davon. 3/34 Zufallsvariablen Definition Zwei Zufallsvariablen Zwei Zufallsvariablen X und Y können verschiedene Aspekte eines Experiments beschreiben. Beispiel 1 2 3 X = Temperatur um 1200 Uhr Y = Niederschlagsmenge (in mm) am selben Tag. Experiment: zwei Würfel werfen. X = Augenzahl erster Würfel Y = Augenzahl zweiter Würfel Experiment: zwei Würfel werfen. X = Augenzahl erster Würfel Z = Augensumme beider Würfel In den Fällen (1) und (3) sind die Zufallsvariablen abhängig, im Fall (2) sind X und Y unabhängig. 4/34 Zufallsvariablen Definition Viele Zufallsvariablen Eine Folge X1 , X2 , X3 , . . . von Zufallsvariablen kann eine Folge von Zufallsexperimenten beschreiben. Beispiel 1 2 Ein Würfel wird nacheinander immer wieder geworfen. X1 = Ergebnis erster Wurf X2 = Ergebnis zweiter Wurf usf. An dreißig Tagen wird die Mittagstemperatur gemessen. Xk = Temperatur am Tag k (für k = 1, . . . , 30). Im ersten Fall sind die Zufallsvariablen unabhängig; im zweiten nicht. 5/34 Ereignisse Definition Ereignisse: Definition Definition Jede Aussage, deren Wahrheitsgehalt durch die Werte einer oder mehrerer Zufallsvariablen bestimmt werden kann, heißt Ereignis. Wir sagen, dass ein Ereignis eintritt, wenn die entsprechende Aussage bei den tatsächlich beobachteten Werten der Zufallsvariablen wahr ist. 6/34 Ereignisse Beispiele Beispiel 1 Würfelwurf: X = Augenzahl. A = Augenzahl höchstens Drei“. ” Formale Schreibweise A = {X ≤ 3}. 7/34 Ereignisse Beispiele Beispiel 2 Dreifacher Würfelwurf: X1 , X2 , X3 Ergebnisse der drei Würfe. A := Augensumme ist höchstens Zehn“ ” B := Augensumme ist gerade“ ” C := Augenzahl des zweiten Wurfs ist Vier“ ” D := Augenzahl des zweiten Wurfs ist gerade“ ” Dann ist A = {X1 + X2 + X3 ≤ 10} B = {X1 + X2 + X3 durch 2 teilbar} = X1 + X2 + X3 ∈ {4, 6, 8, 10, 12, 14, 16, 18} C = {X2 = 4} D = X2 ∈ {2, 4, 6} 8/34 Ereignisse Beispiele Beispiel 3 X = Mittagstemperatur, A = Temperatur ist zwischen 290K und 295K“. ” Dann ist A = {290 ≤ X ≤ 295} = {X ∈ [290, 295]}. 9/34 Ereignisse Logische Verknüpfungen Logische Verknüpfungen Definition ∅ Ereignis, das nie eintritt Ω Ereignis, das immer eintritt A∩B A und B treten ein A∪B A oder B tritt ein (oder beide) A\B A tritt ein, aber nicht B Ac = Ω \ A A tritt nicht ein (Gegenereignis zu A) A⊂B heißt, dass aus A stets B folgt 10/34 Ereignisse Logische Verknüpfungen Logische Verknüpfungen Beispiel 2 (Fortsetzung) A = {X1 + X2 + X3 ≤ 10} B = X1 + X2 + X3 ∈ {4, 6, 8, 10, 12, 14, 16, 18} C = {X2 = 4} D = X2 ∈ {2, 4, 6} Dann ist A ∩ B = {X1 + X2 + X3 ∈ {4, 6, 8, 10}} A ∪ B = {X1 + X2 + X3 ∈ {3, 4, 5, 6, 7, 8, 9, 10, 12, 14, 16, 18}} A ∩ C = {X2 = 4 und (X1 + X3 ) ≤ 6} B c = X1 + X2 + X3 ∈ {3, 5, 7, 9, 11, 13, 15, 17} C \ B = X2 = 4 und X1 + X3 ∈ {3, 5, 7, 9, 11} Es gilt C ⊂ D 11/34 Ereignisse Logische Verknüpfungen Logische Verknüpfungen Mehrere Ereignisse Seien A1 , A2 , . . . , An Ereignisse. Dann gelten n [ Ai = A1 ∪ A2 ∪ . . . ∪ An i=1 = wenigstens eines der A1 , . . . , An tritt ein, n \ Ai = A1 ∩ A2 ∩ . . . ∩ An i=1 = jedes der A1 , . . . , An tritt ein. Auch für n = ∞ möglich. 12/34 Ereignisse Logische Verknüpfungen Logische Verknüpfungen de Morgan’sche Regeln Gegenereignis zu A ∪ B: Weder A noch B tritt ein. Anders gesagt: Ac und B c treten ein. Also (A ∪ B)c = Ac ∩ B c . Analog (A ∩ B)c = Ac ∪ B c . Beispiel: Würfelwurf X A = {X ≤ 3}, B = {X ∈ {2, 4, 6}}. A ∪ B = {X ∈ {1, 2, 3, 4, 6}} und (A ∪ B)c = {X = 5}. Andererseits: Ac = {X ≥ 4}, B c = {X ∈ {1, 3, 5}}. Also Ac ∩ B c = {X = 5}. 13/34 Ereignisse de Morgan’sche Regeln Logische Verknüpfungen de Morgan’sche Regeln Satz (de Morgan) Seien A1 , A2 , . . . , An Ereignisse. Dann gelten !c n n \ [ = Aci Ai i=1 i=1 und n \ i=1 !c Ai = n [ Aci . i=1 Auch für n = ∞ gültig. 14/34 Ereignisse de Morgan’sche Regeln Logische Verknüpfungen de Morgan’sche Regeln Beispiel Seien X1 , . . . , X10 Ergebnisse von zehn Würfelwürfen. Ai := {Xi = 6} für i = 1, . . . , 10. Dann ist Aci = {Xi ≤ 5} und 10 [ Ai = wenigstens eine Sechs“ in den zehn Würfen, ” !c i=1 10 [ i=1 Ai = keine Sechs“ in den zehn Würfen ” = jeder Wurf höchstens Fünf“ = ” 10 \ Aci . i=1 15/34 Wahrscheinlichkeit Definition Definition der Wahrscheinlichkeit Definition Jedem Ereignis A wird eine Zahl P[A] ∈ [0, 1] zugeordnet, die misst, wie wahrscheinlich“ das Eintreten von A ist. ” Wir sagen: P[A] ist die Wahrscheinlichkeit (dafür), dass A eintritt. Beispiel Sei X das Ergebnis eines Würfelwurfes und A = {X = 5}. Symmetrie liefert: 1 P[A] = . 6 16/34 Wahrscheinlichkeit Definition Deutung der Wahrscheinlichkeit Beispiel Seien X1 , X2 , . . . die Ergebnisse eines wiederholten Würfelwurfes. Absolute Häufigkeit Hn := Anzahl der Würfe i ≤ n mit Xi = 5. Relative Häufigkeit hn = Hn /n. Wir erwarten 1 = P[A] für großes n. 6 =⇒ Interpretation der Wahrscheinlichkeit für wiederholbare Experimente. hn ≈ 17/34 Wahrscheinlichkeit Definition Rechenregeln für Wahrscheinlichkeiten Satz Es gelten: 1 P[∅] = 0, P[Ω] = 1 2 P[A ∪ B] = P[A] + P[B], falls A ∩ B = ∅ 3 P[A ∪ B] = P[A] + P[B] − P[A ∩ B] im allgemeinen Fall 4 P[Ac ] = 1 − P[A] 18/34 Wahrscheinlichkeit Definition Rechenregeln für Wahrscheinlichkeiten Beispiel: Würfelwurf X Sei A = {X ≤ 2}, B = {X ≥ 5}, C = {X ∈ {2, 4, 6}}. Dann gelten {X = 7} = ∅, also P[X = 7] = P[∅] = 0 {X ≤ 6} = Ω, also P[X ≤ 6] = P[Ω] = 1 A ∪ B = {X ∈ {1, 2, 5, 6}} und A ∩ B = ∅ also 4 2 2 = P[A ∪ B] = P[A] + P[B] = + 6 6 6 A ∪ C = {X ∈ {1, 2, 4, 6}} und A ∩ C = {X = 2}. Also 4 2 3 1 = P[A ∪ C] = P[A] + P[C] − P[A ∩ C] = + − 6 6 6 6 19/34 Wahrscheinlichkeit Definition Verteilung von Zufallsvariablen Definition (Verteilung einer Zufallsvariable) Ist X eine Zufallsvariable mit Werten in W, so heißt die Familie PX := (P[X ∈ A], A ⊂ W) aller Wahrscheinlichkeiten für Werte, die X annehmen kann, die Verteilung von X . In der allgemeinen mathematischen Theorie gibt es hier Fußangeln, die für Sie aber keine Bedeutung haben. Beispiel: Gleichverteilung Ist W eine endliche Menge, so gibt es oft (aber nicht immer) Symmetriegründe, so dass für A ⊂ W gilt: P[X ∈ A] = #A . #W X heißt dann gleichverteilt oder uniform verteilt auf W . 20/34 Wahrscheinlichkeit Definition Dichte und Gewichtsfunktion Definition Ist W = N0 , so ist die Verteilung von X durch die Wahrscheinlichkeiten k ∈ N0 P[X = k], festgelegt. Die Zuordnung k 7→ P[X = k] heißt Gewichtsfunktion. Für jede Teilmenge A ⊂ W gilt dann X P[X ∈ A] = P[X = k]. k∈A Dabei wird die Summe über alle k ∈ A gebildet. Z.B. ist P[X ∈ {3, . . . , 7}] = 7 X P[X = k]. k=3 21/34 Wahrscheinlichkeit Definition Dichte und Gewichtsfunktion Definition Ist W = R oder W = [0, ∞) und gibt es eine Funktion fX mit Z P[X ∈ [a, b]] = b fX (t) dt für alle a < b, a so heißt fX Dichte von X . Die Verteilung von X ist durch die Dichte eindeutig festgelegt. 22/34 Wahrscheinlichkeit Definition Verteilung einer Zufallsvariable Beispiel: Zweifacher Würfelwurf X1 , X2 Sei X = (X1 , X2 ) gemeinsames Ergebnis (mit Reihenfolge) zweier Würfelwürfe. Wertebereich von X : W = {(1, 1), (1, 2), . . . , (6, 6)}. Klar: #W = 36 und X ist uniform verteilt auf W. Sei A = Augensumme ist Fünf“. Dann ist ” 4 1 P[A] = P X ∈ {(1, 4), (2, 3), (3, 2), (4, 1)} = = . 36 9 Sei Y = X1 + X2 Augensumme. Wertebereich WY = {2, . . . , 12}. Aber Y ist nicht gleichverteilt! 23/34 Wahrscheinlichkeit Definition Verteilung einer Zufallsvariable Beispiel: Zweifacher Würfelwurf X1 , X2 (Fortsetzung) Sei Y = X1 + X2 Augensumme. Y ist nicht gleichverteilt: P[Y = 2] = P[X = (1, 1)] = 1 36 P[Y = 3] = P[X ∈ {(1, 2), (2, 1)}] = 2 36 P[Y = 4] = P[X ∈ {(1, 3), (2, 2), (3, 1)}] = 3 36 .. . 6 36 5 P[Y = 8] = 36 .. . P[Y = 7] = 24/34 Wahrscheinlichkeit Unabhängigkeit Unabhängigkeit (intuitiv) Sind X1 , X2 , . . . die Ergebnisse von unabhängigen Zufallsexperimenten (also solchen, deren Ausgänge die anderen Zufallsexperimente nicht beeinflussen), so gilt Für zwei Zufallsvariablen: P[X1 ∈ A1 und X2 ∈ A2 ] = P[X1 ∈ A1 ] · P[X2 ∈ A2 ] für je zwei mögliche Wertemengen A1 und A2 . Für drei Zufallsvariablen: P[X1 ∈ A1 und X2 ∈ A2 und X3 ∈ A3 ] = P[X1 ∈ A1 ] · P[X2 ∈ A2 ] · P[X3 ∈ A3 ] für je drei mögliche Wertemengen A1 , A2 und A3 . Für n Zufallsvariablen und jede Wahl A1 , . . . , An ⊂ W: "n # n \ Y P {Xi ∈ Ai } = P[Xi ∈ Ai ]. i=1 i=1 25/34 Wahrscheinlichkeit Unabhängigkeit Unabhängigkeit Definition (Unabhängige Zufallsvariablen) Die Zufallsvariablen X1 , . . . , Xn heißen unabhängig, wenn für jedes k ≤ n und jede Wahl 1 ≤ i1 < i2 < . . . < ik ≤ n und jede Wahl von Wertemengen Ai1 , . . . , Aik die Produktformel gilt: " k # k \ Y P {Xi` ∈ Ai` } = P[Xi` ∈ Ai` ]. (1) `=1 `=1 In dieser Definition ist auch n = ∞ möglich, also unendlich viele Zufallsvariablen. 26/34 Wahrscheinlichkeit Unabhängigkeit Unabhängigkeit Definition (Unabhängige Ereignisse) Die Ereignisse B1 , . . . , Bn heißen unabhängig, wenn für jedes k ≤ n und jede Wahl 1 ≤ i1 < i2 < . . . < ik ≤ n die Produktformel gilt: " k # k \ Y P Bi` = P[Bi` ]. (2) `=1 `=1 Speziell sind zwei Ereignisse A und B genau dann unabhängig, wenn P[A ∩ B] = P[A] · P[B]. In dieser Definition ist auch n = ∞ möglich, also unendlich viele Ereignisse. 27/34 Wahrscheinlichkeit Unabhängigkeit Warten auf ersten Erfolg X1 , X2 , . . . unabhängige Zufallsvariablen, die uniform auf W = {1, . . . , 6} verteilt sind (unendliche Wiederholung eines fairen Würfelwurfes). Wie lange muss man warten, bis die erste Sechs“ fällt? ” Sei T = Wartezeit auf die erste Sechs“. Wir zählen den ersten ” Wurf noch nicht als Warten und setzen T = 0, falls X1 = 6 T = 1, falls X1 6= 6 und X2 = 6 T = 2, falls X1 6= 6, X2 6= 6 und X3 = 6 T = 3, falls X1 6= 6, X2 6= 6, X3 6= 6 und X4 = 6 .. . 28/34 Wahrscheinlichkeit Unabhängigkeit Warten auf ersten Erfolg (2) 1 6 P[T = 1] = P[X1 6= 6 und X2 = 6] = P[{X1 6= 6} ∩ {X2 = 6}] P[T = 0] = P[X1 = 6] = 5 1 5 · = 6 6 36 P[T = 2] = P[{X1 6= 6} ∩ {X2 6= 6} ∩ {X3 = 6}] = P[X1 6= 6] · P[X2 6= 6] · P[X3 = 6] 5 2 1 25 = = . 6 6 216 = P[X1 6= 6] · P[X2 = 6] = 29/34 Wahrscheinlichkeit Unabhängigkeit Warten auf ersten Erfolg (3) P[T = n] = P[Xi 6= 6 für alle i ≤ n und Xn+1 = 6] ! n Y = P[Xi 6= 6] · P[Xn+1 = 6] i=1 n 5 1 . = 6 6 30/34 Wahrscheinlichkeit Unabhängigkeit Warten auf ersten Erfolg (4) Genauso gilt P[T ≥ n] = P[Xi 6= 6 für alle i ≤ n] ! n Y = P[Xi 6= 6] i=1 n 5 = . 6 31/34 Wahrscheinlichkeit Unabhängigkeit Warten auf ersten Erfolg Allgemeiner Fall Statt Würfeln jetzt Münzwurf mit Wahrscheinlichkeit p für Kopf. T = Anzahl der Würfe, bevor Kopf kommt. Wertebereich W = {0, 1, 2, . . .}. P[T = n] = (1 − p)n p. und P[T ≥ n] = (1 − p)n . Definition Diese Verteilung heißt geometrische Verteilung mit Parameter p. 32/34 Wahrscheinlichkeit Unabhängigkeit Beispiel: Würfelwurf Wie oft muss man würfeln, um mit Wahrscheinlichkeit 99% mindestens eine Sechs zu würfeln? Lösung 1: Wahrscheinlichkeit für mindestens eine Sechs in n Würfen "n # " n !c # [ [ P {Xi = 6} = 1 − P {Xi = 6} i=1 " =1−P =1−P i=1 n \ # c {Xi = 6} "i=1 n \ # {Xi ≤ 5} = 1 − i=1 n 5 . 6 Dabei haben wir in der ersten Zeile Rechenregel 4 ausgenutzt, in der zweiten Zeile die de Morgan’sche Regel. Es gilt also 0.99 ≤ 1 − (5/6)n . Umstellen ergibt n ≥ log(0.01)/ log(5/6) ≈ 25.26, also muss n = 26 gewählt werden. 33/34 Wahrscheinlichkeit Unabhängigkeit Beispiel: Würfelwurf (2) Wie oft muss man würfeln, um mit Wahrscheinlichkeit 99% mindestens eine Sechs zu würfeln? Lösung 2: Die Wartezeit T auf die erste Sechs ist geometrisch verteilt, also n 5 P[T ≥ n] = . 6 Gesucht ist n, so dass P[T ≥ n] ≤ 0.01. Es gilt also n 5 0.01 ≥ , 6 und wie in Lösung 1 erhalten wir n ≥ 26. 34/34