Musterlösung zu Serie 2

Werbung
Dr. Patric Müller
Wahrscheinlichkeit und Statistik
FS 2017
Musterlösung zu Serie 2
1. Regeln für Wahrscheinlichkeiten
a) Das Ereignis, dass mindestens eine der Komponenten K2 funktioniert, ist gleich B1 ∪ B2 , (“B1 oder
B2 oder beide”). Man kann dem noch den Namen B geben, B = B1 ∪ B2 . Das Funktionieren
verlangt, dass dieses Ereignis eintritt und A funktioniert, also F = A ∩ B = A ∩ (B1 ∪ B2 ).
Wir können auch wie folgt argumentieren: Damit das ganze System funktioniert, muss die Komponente
K1 gleichzeitig mit der Komponente K21 funktionieren (A∩B1 ) oder gleichzeitig mit der Komponente
K22 , also (A ∩ B2 ). Damit haben wir:
F = (A ∩ B1 ) ∪ (A ∩ B2 ). Dies ist nur eine andere Schreibweise für den gleichen Sachverhalt.
b) Die Wahrscheinlichkeit von B = B1 ∪ B2 berechnet man am besten über das Gegenereignis: Die
Wahrscheinlichkeit, dass beide nicht funktionieren, ist 0.05·0.05 = 0.0025, also P (B) = 1−0.0025 =
0.9975.
Diese Wahrscheinlichkeit muss wegen der Unabhängigkeit noch mit der Wahrscheinlichkeit des Funktionierens von A multipliziert werden, P (F ) = P (A) · P (B) = 0.99 · 0.9975 = 0.98753.
Formal:
unabh.
P (F ) = P (A ∩ B) = P (A)P (B) = P (A)(1 − P (B c ))
unabh.
P (B c ) = P (B1c ∩ B2c ) = P (B1c )P (B2c ) = (1 − 0.95)2 = 0.0025
Damit haben wir: P (F ) = 0.99(1 − 0.0025) = 0.98753
2. a) P (D|L): Die Wahrscheinlichkeit, dass der Detektor sagt, dass die Person lügt, gegeben dass die
Person tatsächlich gelogen hat.
P (Dc |Lc ): Die Wahrscheinlichkeit, dass der Detektor sagt, dass die Person nicht lügt, gegeben dass
die Person tatsächlich die Wahrheit gesagt hat.
b) Die fehlenden Wahrscheinlichkeiten können folgendermassen berechnet werden:
P (L) = 0.05 ⇒ P (Lc ) = 1 − P (L) = 0.95,
P (D|L) = 0.9 ⇒ P (Dc |L) = 1 − P (D|L) = 0.1,
P (Dc |Lc ) = 0.8 ⇒ P (D|Lc ) = 1 − P (Dc |Lc ) = 0.2.
Mit dem Satz von Bayes oder durch Betrachtung des Baumdiagramms folgt:
P (D ∩ L) = P (D|L)P (L) = 0.9 · 0.05 = 0.045,
P (Dc ∩ L) = P (Dc |L)P (L) = 0.1 · 0.05 = 0.005,
P (D ∩ Lc ) = P (D|Lc )P (Lc ) = 0.2 · 0.95 = 0.19,
P (Dc ∩ Lc ) = P (Dc |Lc )P (Lc ) = 0.8 · 0.95 = 0.76.
Das Baumdiagramm ist gegeben durch:
L∩D
P (D|L)
◦
0.9 · 0.05
L 0.9
◦XXXX
P (L) = P (L|Ω) 0.05
0.1
XXX
XXX L ∩ D c
X
X◦
P (Dc |L)
0.1
· 0.05
0.05
Ω ◦H
HH
H
Lc ∩ D
HH0.95
c
◦
P
(D|L
)
H
HH
0.2 · 0.95
Lc
0.2
P (Lc ) = P (Lc |Ω) HH
H◦X
X
0.95 XXXX 0.8
XX
XXX
Lc ∩ Dc
X◦
P (Dc |Lc )
0.8 · 0.95
2
c) Der Detektor liefert in den folgenden Fällen das richtige Resultat:
• Die Person lügt (L) und der Detektor sagt: Lüge (D)
• Die Person sagt die Wahrheit (Lc ) und der Detektor sagt: keine Lüge (Dc )
Da sich diese Fälle gegenseitig ausschliessen, ist die Wahrscheinlichkeit:
P (Detektor liefert richtiges Resultat) = P ((D ∩ L) ∪ (Dc ∩ Lc ))
disj.
= P (D ∩ L) + P (Dc ∩ Lc )
= P (D|L) · P (L) + P (Dc |Lc ) · P (Lc )
= 0.9 · 0.05 + 0.8 · 0.95
= 0.805.
d) Mit dem Satz von Bayes und dem Satz der totalen Wahrscheinlichkeit berechnen wir
P (D|L)P (L)
P (D)
Bayes
P (L|D) =
tot. W’keit
=
P (D|L)P (L)
0.9 · 0.05
=
= 0.19.
P (D ∩ L) + P (D ∩ Lc )
0.045 + 0.19
3. a) Nehmen wir an, ein Würfel sei rot, der andere schwarz. Falls mit dem roten und dem schwarzen
Würfel je eine Eins geworfen wird, haben wir das Ereignis “zwei Einsen”. Das Ereignis “eine Eins und
eine Zwei” kann auf zwei Arten erzeugt werden. Es kann sein, dass mit dem roten Würfel eine Eins
geworfen wird und mit dem schwarzen eine Zwei oder umgekehrt. Um diese Ereignisse formal zu
erfassen, benutzen wir Klammern. Der erste Eintrag ist das Ergebnis des roten Würfels und der zweite
das Ergebnis des schwarzen. Für die obigen Ereignisse haben wir also: (1, 1), (1, 2) und (2, 1). Mit
diesen Überlegungen erhalten wir den folgenden Ereignisraum:
Ω = {(1, 1), (1, 2), . . . , (1, 6), (2, 1), (2, 2), . . . , (2, 6), (3, 1) . . . , (6, 6)}
Der Ergebinsraum Ω besteht aus 36 Elementarereignisse.
b) Die Zufallsvariable S ist die Augensumme der Würfel. Ihr Wertebereich ist also: WS = {2, 3, 4, . . . , 11, 12}.
In der folgenden Tabelle ist ihre Wahrscheinlichkeits-Verteilung beschrieben:
2
3
4
5
6
7
8
9 10 11 12
s
1
2
3
4
5
6
5
4
3
2
1
P (S = s) 36
36
36
36
36
36
36
36
36
36
36
c) Wahrscheinlichkeits-Verteilung und kumulative Verteilungsfunktion
6/36
P (S = s)
6
r
36/36
F (s)
6
r
r
5/36
r
r
4/36
r
r
r
30/36
r
r
24/36
r
r
3/36
r
18/36
r
r
2/36
r
r
1/36
12/36
r
r
r
6/36
r
- s
1
2
3
4
5
6
7
8
9
10 11 12
1
2
r
- s
3
4
5
6
7
8
9
10 11 12
Herunterladen