Dr. Patric Müller Wahrscheinlichkeit und Statistik FS 2017 Musterlösung zu Serie 2 1. Regeln für Wahrscheinlichkeiten a) Das Ereignis, dass mindestens eine der Komponenten K2 funktioniert, ist gleich B1 ∪ B2 , (“B1 oder B2 oder beide”). Man kann dem noch den Namen B geben, B = B1 ∪ B2 . Das Funktionieren verlangt, dass dieses Ereignis eintritt und A funktioniert, also F = A ∩ B = A ∩ (B1 ∪ B2 ). Wir können auch wie folgt argumentieren: Damit das ganze System funktioniert, muss die Komponente K1 gleichzeitig mit der Komponente K21 funktionieren (A∩B1 ) oder gleichzeitig mit der Komponente K22 , also (A ∩ B2 ). Damit haben wir: F = (A ∩ B1 ) ∪ (A ∩ B2 ). Dies ist nur eine andere Schreibweise für den gleichen Sachverhalt. b) Die Wahrscheinlichkeit von B = B1 ∪ B2 berechnet man am besten über das Gegenereignis: Die Wahrscheinlichkeit, dass beide nicht funktionieren, ist 0.05·0.05 = 0.0025, also P (B) = 1−0.0025 = 0.9975. Diese Wahrscheinlichkeit muss wegen der Unabhängigkeit noch mit der Wahrscheinlichkeit des Funktionierens von A multipliziert werden, P (F ) = P (A) · P (B) = 0.99 · 0.9975 = 0.98753. Formal: unabh. P (F ) = P (A ∩ B) = P (A)P (B) = P (A)(1 − P (B c )) unabh. P (B c ) = P (B1c ∩ B2c ) = P (B1c )P (B2c ) = (1 − 0.95)2 = 0.0025 Damit haben wir: P (F ) = 0.99(1 − 0.0025) = 0.98753 2. a) P (D|L): Die Wahrscheinlichkeit, dass der Detektor sagt, dass die Person lügt, gegeben dass die Person tatsächlich gelogen hat. P (Dc |Lc ): Die Wahrscheinlichkeit, dass der Detektor sagt, dass die Person nicht lügt, gegeben dass die Person tatsächlich die Wahrheit gesagt hat. b) Die fehlenden Wahrscheinlichkeiten können folgendermassen berechnet werden: P (L) = 0.05 ⇒ P (Lc ) = 1 − P (L) = 0.95, P (D|L) = 0.9 ⇒ P (Dc |L) = 1 − P (D|L) = 0.1, P (Dc |Lc ) = 0.8 ⇒ P (D|Lc ) = 1 − P (Dc |Lc ) = 0.2. Mit dem Satz von Bayes oder durch Betrachtung des Baumdiagramms folgt: P (D ∩ L) = P (D|L)P (L) = 0.9 · 0.05 = 0.045, P (Dc ∩ L) = P (Dc |L)P (L) = 0.1 · 0.05 = 0.005, P (D ∩ Lc ) = P (D|Lc )P (Lc ) = 0.2 · 0.95 = 0.19, P (Dc ∩ Lc ) = P (Dc |Lc )P (Lc ) = 0.8 · 0.95 = 0.76. Das Baumdiagramm ist gegeben durch: L∩D P (D|L) ◦ 0.9 · 0.05 L 0.9 ◦XXXX P (L) = P (L|Ω) 0.05 0.1 XXX XXX L ∩ D c X X◦ P (Dc |L) 0.1 · 0.05 0.05 Ω ◦H HH H Lc ∩ D HH0.95 c ◦ P (D|L ) H HH 0.2 · 0.95 Lc 0.2 P (Lc ) = P (Lc |Ω) HH H◦X X 0.95 XXXX 0.8 XX XXX Lc ∩ Dc X◦ P (Dc |Lc ) 0.8 · 0.95 2 c) Der Detektor liefert in den folgenden Fällen das richtige Resultat: • Die Person lügt (L) und der Detektor sagt: Lüge (D) • Die Person sagt die Wahrheit (Lc ) und der Detektor sagt: keine Lüge (Dc ) Da sich diese Fälle gegenseitig ausschliessen, ist die Wahrscheinlichkeit: P (Detektor liefert richtiges Resultat) = P ((D ∩ L) ∪ (Dc ∩ Lc )) disj. = P (D ∩ L) + P (Dc ∩ Lc ) = P (D|L) · P (L) + P (Dc |Lc ) · P (Lc ) = 0.9 · 0.05 + 0.8 · 0.95 = 0.805. d) Mit dem Satz von Bayes und dem Satz der totalen Wahrscheinlichkeit berechnen wir P (D|L)P (L) P (D) Bayes P (L|D) = tot. W’keit = P (D|L)P (L) 0.9 · 0.05 = = 0.19. P (D ∩ L) + P (D ∩ Lc ) 0.045 + 0.19 3. a) Nehmen wir an, ein Würfel sei rot, der andere schwarz. Falls mit dem roten und dem schwarzen Würfel je eine Eins geworfen wird, haben wir das Ereignis “zwei Einsen”. Das Ereignis “eine Eins und eine Zwei” kann auf zwei Arten erzeugt werden. Es kann sein, dass mit dem roten Würfel eine Eins geworfen wird und mit dem schwarzen eine Zwei oder umgekehrt. Um diese Ereignisse formal zu erfassen, benutzen wir Klammern. Der erste Eintrag ist das Ergebnis des roten Würfels und der zweite das Ergebnis des schwarzen. Für die obigen Ereignisse haben wir also: (1, 1), (1, 2) und (2, 1). Mit diesen Überlegungen erhalten wir den folgenden Ereignisraum: Ω = {(1, 1), (1, 2), . . . , (1, 6), (2, 1), (2, 2), . . . , (2, 6), (3, 1) . . . , (6, 6)} Der Ergebinsraum Ω besteht aus 36 Elementarereignisse. b) Die Zufallsvariable S ist die Augensumme der Würfel. Ihr Wertebereich ist also: WS = {2, 3, 4, . . . , 11, 12}. In der folgenden Tabelle ist ihre Wahrscheinlichkeits-Verteilung beschrieben: 2 3 4 5 6 7 8 9 10 11 12 s 1 2 3 4 5 6 5 4 3 2 1 P (S = s) 36 36 36 36 36 36 36 36 36 36 36 c) Wahrscheinlichkeits-Verteilung und kumulative Verteilungsfunktion 6/36 P (S = s) 6 r 36/36 F (s) 6 r r 5/36 r r 4/36 r r r 30/36 r r 24/36 r r 3/36 r 18/36 r r 2/36 r r 1/36 12/36 r r r 6/36 r - s 1 2 3 4 5 6 7 8 9 10 11 12 1 2 r - s 3 4 5 6 7 8 9 10 11 12