Diskrete Strukturen II - Zentral ¨ubung (Musterl

Werbung
Diskrete Strukturen II - Zentralübung (Musterlösung)
Michael Tautschnig
23. Mai 2003
Inhaltsverzeichnis
1 Blatt 1
1.1 Jobs und Prozessoren . . . .
1.2 Coupon-Collector-Problem
1.3 Urnen . . . . . . . . . . . . .
1.4 Lotto . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
2
2
2
3
4
2 Blatt 2
2.1 Royal Flush . . . . . . . . . . . . .
2.2 Gezinkte Münzen . . . . . . . . . .
2.3 Prozessoren und Speicherzellen . .
2.4 Ziehen mit und ohne Zurücklegen
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
5
5
5
6
7
3 Blatt 3
3.1 Verteilung des Minimums . . . . . . . . . . . . . .
3.2 Serverausfälle . . . . . . . . . . . . . . . . . . . . .
3.3 Mensch gegen Maschine . . . . . . . . . . . . . . .
3.4 Gedächtnislosigkeit der geometrischen Verteilung
3.5 Was trifft zu? . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
9
. 9
. 9
. 10
. 10
. 11
4 Blatt 4
4.1 Schärfe der Markov-Ungleichung . . . . . . . . . . . .
4.2 Lastverteilung . . . . . . . . . . . . . . . . . . . . . . .
4.3 Verhältnis geometrisch verteilter Zufallsvariablen . .
4.4 Chernoff für Summen geometrischer Zufallsvariablen
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
13
13
13
14
14
5 Blatt 5
5.1 Routerausfälle . . . . . . . . . . . .
5.2 Verteilung von Betrag und Wurzel
5.3 Punkt im Dreieck . . . . . . . . . .
5.4 Lebensdauer . . . . . . . . . . . . .
5.5 Erlang-Verteilung . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
16
16
16
17
17
18
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Korrekturen
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
19
1
1 Blatt 1
1.1 Jobs und Prozessoren
Gegeben seien ein Parallelrechner mit fünf unterscheidbaren Prozessoren P1 , P2 , . . . P5 und drei voneinander nicht unterscheidbare Jobs.
(a) Wieviele Möglichkeiten gibt es, diese Jobs auf die einzelnen Prozessoren zur verteilen, wenn jedem
Prozessor höchstens ein Job zugeteilt werden darf?
Zu bestimmen: Wieviele Belegungen B gibt es? Dabei ist B eine 3-Teilmenge der 5-Menge P : B ⊂
P, |B| = 3
Ω = {B : B ist Belegung}
5
|Ω| =
= 10
3
(b) Wieviele Möglichkeiten gibt es dafür, dass die Prozessoren P1 , P2 , P3 genau zwei und P4 , P5 den verbleibenden Job bekommen?
Definiere Ereignis E ⊂ Ω
E
= {E1 ∪ E2 : E1 ⊂ {P1 , P2 , P3 }, |E1 | = 2, E2 ⊂ {P4 , P5 }, |E2 | = 1}
3
2
|E| =
·
=6
2
1
(c) Man bestimme die Wahrscheinlichkeit, mit der das in (b) beschriebene Ereignis bei einer zufälligen
Verteilung der Jobs eintritt.
Definiere Wahrscheinlichkeitsraum Ω = {B : B ist Belegung} = {ω1 , . . . ω|Ω| }
|Ω| =
Pr[ωi ] =
Pr[E] =
5
3
1
i = 1 . . . |Ω|
|Ω|
X 1
|E|
6
=
=
|Ω|
|Ω|
10
ω∈E
1.2 Coupon-Collector-Problem
Es sind k Abziehbilder in Haselnusstafeln versteckt, wobei jedes Bild mit gleicher Wahrscheinlichkeit versteckt ist. Wenn Sie n Haselnusstafeln kaufen, wie groß ist dann die Wahrscheinlichkeit, dass Sie alle Bildchen bekommen?
Definiere Wahrscheinlichkeitsraum Ω = t = (t1 , . . . tn ) : ti = {1, . . . k}, i = 1 . . . n = {ω1 , . . . ωn }
|Ω| = k n
1
Pr[ωi] =
|Ω|
2
i = 1 . . . |Ω|
Ereignis A ⊂ Ω:
A
Pr[A]
= {t = (t1 , . . . tn ) :
=
X
Pr[ω] =
ω∈A
n
[
i=1
{ti } = {1 . . . k}
X 1
|A|
=
|Ω|
|Ω|
ω∈A
Was ist |A|? Beispiel: n = 3, k = 2
• t = (2, 1, 1)
• I = {1, 2, 3}
• B1 = {2, 3}, B2 = {1}
Also: Partitioniere die Indexmenge I = {1 . . . n} eines t ∈ A, t = (t1 , . . . tn ) in genau k nicht-leere Teilmengen B1 , . . . Bk ⊂ I. Dabei stehen die Elemente von Bi für diejenigen gekauften Tafeln, in denen das
Bild i versteckt war.
Somit: Wieviele Möglichkeiten gibt es, eine n-Menge in k unterscheidbare, nicht-leere Teilmengen zu
partitionieren?
Stirling-Zahlen 2. Art Sn,k : Anzahl der Möglichkeiten eine n-Menge in k nicht-unterscheidbare, nichtleere Teilmengen zu partitionieren.
Da die k Teilmengen unterscheidbar sind, haben wir noch den Faktor k! zu berücksichtigen.
Insgesamt: |A| = Sn,k · k!
Pr[A] =
Sn,k · k!
kn
1.3 Urnen
Gegeben sind zwei Urnen U1 und U2 . In U1 sind zwei weiße und sieben schwarze Kugeln; in U2 sind fünf
weiße und sechs schwarze Kugeln. Wir werfen eine faire Münze (d.h., dass die Wahrscheinlichkeiten für
Kopf und Zahl gleich sind) und ziehen bei Kopf eine Kugel aus U1 und bei Zahl eine aus U2 . Wie hoch ist
die bedingte Wahrscheinlichkeit, dass das Ergebnis des Münzwurfs Kopf war unter der Bedingung, dass
eine weiße Kugel gezogen wurde.
Definiere Ereignisse
• Ui : Kugel aus Ui gezogen, i = {1, 2}
• W : Weiße Kugel gezogen
• Kopf = U1 , Kopf=U2
Uns interessiert Pr[U1 |W ]
Bedingte Wahrscheinlichkeit: siehe Vorlesung
Pr[U1 ∩ W ]
Pr[W |U1 ] · Pr[U1 ]
=
Pr[W ]
Pr[W ]
= (W ∩ U1 ) ] (W ∩ U2 )
Pr[U1 |W ] =
W
Pr[W ] = Pr[(W ∩ U1 ) ] (W ∩ U2 )] = Pr[W ∩ U1 ] + Pr[W ∩ U2 ]
= Pr[W |U1 ] · Pr[U1 ] + Pr[W |U2 ] · Pr[U2 ]
3
Insgesamt:
Pr[U1 |W ] =
Pr[W |U1 ] · Pr[U1 ]
=
Pr[W |U1 ] · Pr[U1 ] + Pr[W |U2 ] · Pr[U2 ]
2
9
2
9
·
1
2
· 12
5
+ 11
·
1
2
=
22
67
1.4 Lotto
Wir betrachten ein einfaches Lottospiel, bei dem 6 aus 49 Zahlen (ohne Zusatzzahl) gezogen werden. Berechnen Sie eine (möglichst gute) Schranke für die minimale Anzahl von Ziehungen bis mit Wahrscheinlichkeit mindestens 1/2 ein Ziehungsergebnis doppelt auftritt. Wie vielen Jahren entspricht dies, wenn jede
Woche zwei Ziehungen stattfinden?
Definiere Wahrscheinlichkeitsraum Ω = {Z : Z ⊂ {1, . . . 49}, |Z| = 6} = {ω 1 , . . . ω|Ω| }
|Ω| =
Pr[ωi ] =
49
6
1
i = 1 . . . |Ω|
49
6
Urnenmodell:
• n Urnen: Eine Urne entspricht einer bestimmten Zahlenkombination, d.h. ein Element aus Ω
• m Bälle: Ein Ball in einer Urne heißt, dass die entsprechende Zahlenkombination gezogen wurde.
Definiere Ereignis D ⊂ Ω
D: Nach m Würfen gibt es eine Urne mit zwei Bällen.
Das ist gleichwertig zum Geburtstagsproblem
Pr[D]
≥ 1 − e−
m·(m−1)
2n
≥
1
2
m · (m − 1) ≥ 2n · ln 2
√
m ≥
2n · ln 2 = 4403 ≈ 42, 5 Jahren
4
2 Blatt 2
2.1 Royal Flush
Wie groß ist die Wahrscheinlichkeit für einen Royal Flush beim Poker (Spiel mit 52 Karten, 5 davon werden
ausgeteilt, Royal Flush bedeutet 10, B, D, K, A von einer Farbe)? Wie verändert sich die Wahrscheinlichkeit,
wenn die letzte Karte offen ausgeteilt wird und es sich dabei um das Herz-Ass handelt?
Definiere Wahrscheinlichkeitsraum Ω = T : T ⊂ {1, 2, . . . , 52}, |T | = 5
52
|Ω| =
5
1
Pr[ω] =
∀ω ∈ Ω
|Ω|
Ereignis R ⊂ Ω: ,,Royal Flush einer Farbe”
Es gibt genau 4 Royal Flushs- für jede der Farben Karo, Herz, Pik, Kreuz genau 1
4
Pr[R] =
52
5
Ereignis H ⊂ Ω: ,,Letzte Karte ist Herz-Ass”
1
1
Pr[H] =
52
5
Uns interessiert Pr[R|H]
51
4
1
4
4 ( 52 )
Pr[R ∩ H]
Pr[H|R]Pr[R]
Pr[R|H] =
=
= 1 551 =
( 1 )( 4 )
Pr[H]
Pr[H]
( 52
5 )
1
51
4
=
13
· Pr[R]
5
2.2 Gezinkte Münzen
Seien drei gezinkte Münzen gegeben (Ergebnis Kopf K oder Zahl Z). Die Wahrscheinlichkeiten für Kopf
seien 1/3, 2/3 und 1. Wir werfen eine zufällig gewählte Münze zweimal. Mk bzeichne das Ereignis, dass
die k-te Münze gewählt wurde. Kj bezeichne das Ereignis, dass im j-ten Wurf Kopf fällt. Berechnen Sie
Pr[Mk |K1 ] für k = 1, 2, 3 sowie Pr[K2 |K1 ].
Ereignisse
• K: Kopf
• Kj : im j-ten Wurf Kopf
• Mk : Münze k gewählt, k = 1, 2, 3
• Pr[K|M1 ] = 1/3
• Pr[K|M2 ] = 2/3
• Pr[K|M3 ] = 1
5
Bedingte Wahrscheinlichkeiten für Pr[Mk |K1 ], k = 1, 2, 3
Satz von Bayes bzw. Satz von der totalen Wahrscheinlichkeit liefert:
Pr[Mk |K1 ] =
Einsetzen der Wahrscheinlichkeiten:
Pr[Mk ∩ K1 ]
Pr[K1 |Mk ]Pr[Mk ]
= P3
Pr[K1 ]
k=1 Pr[K1 |Mk ]Pr[Mk ]
Pr[M1 |K1 ] =
Pr[M1 |K1 ] =
Pr[M1 |K1 ] =
1
6
1
3
1
2
Bestimmung der Wahrscheinlichkeiten für Pr[K2 |K1 ]
P3
P3
Pr[K|Mk ]2 Pr[Mk ]
Pr[K1 ∩ K2 |Mk ]Pr[Mk ]
Pr[K1 ∩ K2 ]
= Pk=1
Pr[K2 |K1 ] =
= k=1
P3
3
Pr[K1 ]
k=1 Pr[K1 |Mk ]Pr[Mk ]
k=1 Pr[K|Mk ]Pr[Mk ]
2
2
1
· 13 + 23 · 13 + 12 · 31
7
3
=
=
2 1
1
1 1
9
·
+
·
+
3 3
3 3
3
2.3 Prozessoren und Speicherzellen
In einem Parallelrechner mit n Prozessoren und n Speicherzellen sende jeder Prozessor gleichzeitig eine
Anfrage unabhängig und gleichverteilt an eine Speicherzelle. Jede Speicherzelle kann genau eine Anfrage
bedienen. Falls eine Speicherzelle von mehr als einem Prozessor gleichzeitig angefragt wird, so wird keine
der Anfragen beantwortet. Sei X die Anzahl der Prozessoren, die ihre Anfrage beantwortet bekommen.
Berechnen Sie E[X] und lim E[X]
n .
n→∞
X: Anzahl der Prozessoren, deren Anfrage beantwortet wird
Satz (Linearität des Erwartungswertes) Für Zufallsvariablen X1 , . . . Xn und a1 , . . . an ∈ R gilt:
" n
#
n
X
X
E
a i Xi =
ai E[Xi ]
i=1
i=1
Beweis:
E
"
n
X
#
a i Xi =
i=1
n
X X
ω∈Ω i=1
n
n
X
X
X
ai Xi (ω) Pr[ω] =
ai
Xi (ω)Pr[ω] =
ai E[Xi ] i=1
i=1
ω∈Ω
Was ist E[X]?
Xi =
1 wenn i-ter Prozessor Antwort bekommt
0 sonst
⇒X
=
n
X
,,Indikatorvariable”
Xi
i=1
E[X] = E
=
=
"
n
X
n
X
i=1
n
X
i=1
#
Xi =
n
X
E[Xi ]
i=1
1 · Pr[Xi = 1] + 0 · Pr[Xi = 0]
Pr[Xi = 1]
i=1
6
Was ist Pr[Xi = 1]
n−1
n−1
n
n
X n − 1 n−1
Pr[Xi = 1] =
⇒ E[X] =
Was ist
lim
n→∞
n
i=1
=n·
n−1
n
n−1
1
n
n−1
= lim
E[X]
n ?
E[X]
n→∞
n
lim
=
(
z
lim 1+ n
n→∞
=
lim
n→∞
)
n
=e
z
n−1
n
n−1
= lim
n→∞
1−
n
n
1
· 1−
n→∞ n − 1
n
1
≈ 0, 36 . . .
e
2.4 Ziehen mit und ohne Zurücklegen
Aus einer Urne mit den Kugeln 1, . . . n werden k Kugeln gezogen. Die Summe der gezogenen Zahlen wird
mit S bezeichnet.
(a) Ziehen mit Zurücklegen (Nach dem Ziehen einer Kugel wird diese wieder in die Urne gelegt). Berechnen
Sie E[S] und Var[S], wenn die k Kugeln mit Zurücklegen gezogen werden.
Xi : Wert der i-ten gezogenen Kugel
S
=
k
X
Xi
i=1
E[S] = E
E[Xi ] =
E[S] =
"
k
X
#
Xi =
i=1
n
X
k
X
E[Xi ]
i=1
n
1 X
1 1
1
j · Pr[Xi = j] = ·
j = · · n · (n + 1) = · (n + 1)
| {z } n
n
2
2
j=1
j=1
=1/n
k
X
1
i=1
2
· (n + 1) = k ·
1
· (n + 1)
2
Satz (Linearität der Varianz) Für unabhängige Zufallsvariablen X1 , . . . Xn gilt:
" n
#
n
X
X
Var
Xi =
Var[Xi ]
i=1
i=1
Sind die Xi unabhängig?
def.
X1 , . . . Xn unabhängig ⇔ Pr[Xi = x1 , . . . Xn = xn ] = Pr[X1 = x1 ] · . . . · Pr[Xn = xn ]
Pr[X1 = x1 , . . . Xn = xn ] =
Y
[Xi = xi |X1 = x1 , . . . Xi−1 = xi−1 ] =
7
n
Y
i=1
Pr[Xi = xi ] ⇒ Xi unabhängig
"
Var[S] = Var
n
X
#
Xi =
i=1
n
X
Var[Xi ]
i=1
Var[Xi ] = E[Xi2 ] − E[Xi ]2 =
n
X
j=1
j 2 · Pr[Xi = j] −
1
· (n + 1)2
4
1 1
1
· · n · (n + 1) · (2n + 1) − · (n + 1)2 = (n + 1) ·
n 6
4
=
k
X
Var[S] =
Var[Xi ] =
i=1
1
1 1
1
·n+ − ·n−
3
6 4
4
1
1
· k · (n + 1) · (n − 1) =
· k · (n2 − 1)
12
12
(b) Ziehen ohne Zurücklegen (Nach dem Ziehen einer Kugel wird diese nicht mehr in die Urne gelegt).
Berechnen Sie E[S] und Var[S], wenn die k Kugeln ohne Zurücklegen gezogen werden.
1 falls Kugel i gezogen
Yi =
0 sonst
S
n
X
=
i=1
1
1
Pr[Yi = 1] =
n−1 n
X
E[S] =
i · Yi
i=1
Var[S] = Var
k−1
n
k
=
(n−1)!
(k−1)!(n−1−k+1)!
n!
k!(n−k)!
n
X
i · Pr[Yi = 1] =
"
n
X
i=1
i · Yi
#
i=1
i·
=
k
n
k 1
k
k
= · · (n + 1) · n = · (n + 1)
n
n 2
2
Sind die Yi unabhängig? Gegenbeispiel: n > k = 2, Ereignis: Kugel 1 und 2 gezogen:
Pr[Y1 = 1 ∩ Y2 = 2] = Pr[Y2 = 2|Y1 = 1] · Pr[Y1 = 1] =


E
n
X
i=1
Var[S] = E[S 2 ] − E[S]2 = E 
!2 
i · Yi 

= E
=
n
X
i=1
n X
n
X
i=1 j=1
i
2
n
X
i=1

i · Yi
i · j · Y i · Yj  =
E[Yi2 ]
| {z }
=Pr[Yi =1]=k/n
+
!2 
 − E[S]2
n X
n
X
i=1 j=1
n X
n
X
j=1
k−1 k
k k
· =
6
· = Pr[Y2 = 1] · Pr[Y1 = 1]
n−1 n
n n
i=1
i6=j
i · j · E[Yi · Yj ]
i · j · E[Yi · Yj ]
k−1 k
·
n−1 n
n
n
n
X
k XX
k−1 k
1
E[S 2 ] =
i2 +
i·j ·
· = ... =
· k · (3kn2 + n2 + 5kn + n + 2k)
n
n
−
1
n
12
j=1
i=1
i=1
Ei6=j [Yi Yj ] = 1 · Pr[Yi = 1, Yj = 1] + 0 · (1 − Pr[]) =
j6=i
Var[S] =
1
· k · (n + 1) · (n − k)
12
8
3 Blatt 3
3.1 Verteilung des Minimums
Es seien X und Y unabhängige Zufallsvariablen mit den Verteilungen FX (t) := Pr[X ≤ t] und FY (t) :=
Pr[Y ≤ t].
Berechnen Sie für Z := min{X, Y } die Verteilung FZ (t) := Pr[Z ≤ t] (in Abhängigkeit von FX (t) und
FY (t)).
FZ (t) = Pr[Z ≤ t] = 1 − Pr[Z > t] = 1 − Pr[min{X, Y } > t] = 1 − Pr[X > t ∧ Y > t]
unabh.
= 1 − Pr[X > t] · Pr[Y > t] =
= 1 − 1 − FX (t) 1 − FY (t)
1 − (1 − Pr[X ≤ t]) (1 − Pr[Y ≤ t])
3.2 Serverausfälle
Ein Server fällt am i-ten Tag mit Wahrscheinlichkeit pi aus. X sei die Anzahl der Tage bis zum ersten
Ausfall.
• pi : Wahrscheinlichkeit für Ausfall am i-ten Tag. qi = 1 − pi
• X : Anzahl der Tage bis zum ersten Ausfall
a) Bestimmen Sie einen allgemeinen Ausdruck für Pr[X = n] und Pr[X > n].
Pr[X = n] = pn ·
Pr[X > n] =
=
n−1
Y
qi
i=1
∞
X
k=n+1
n
∞
Y
X
qi
i=1
∞ k−1
X
Y
Pr[X = k] =
k=1
k=n+1 i=1
qi · p k =
Pr[X = n + k|X ≥ n] =
|
{z
}
=1
n
Y
n
Y
i=1
qi ·
∞ n+k−1
X
Y
k=1 i=n+1
qi · pk+n
qi
i=1
b) Betrachten Sie die Spezialfälle (b1) und (b2), berechnen Sie jeweils Pr[X > n] und entscheiden Sie, ob
E[X] existiert, d.h. E[X] < ∞
Trick (Satz 1.43)
E[X] =
∞
X
k=1
∞
X
k=1
(1) pi =
1
i+1
Pr[X ≥ k]
k · Pr[X = k] = Pr[X = 1]
+ Pr[X = 2] + Pr[X = 2]
+ Pr[X = 3] + Pr[X = 3] + Pr[X = 3] + . . .
= Pr[X ≥ 1] + Pr[X ≥ 2] + Pr[X ≥ 3] . . .
Pr[X > n] =
E[X] =
∞
Y
(1 −
i=1
∞
X
k=1
n
Y
1
i
1
)=
=
i+1
i+1
n+1
i=1
1
→∞
k+1
9
(2) pi = 1 − e−λi
Pr[X > n] =
E[X] =
n
Y
i=1
∞
X
e
−λi
=e
−λ
n
P
i
i=1
e−1/2λk(k+1)
= e−1/2λn(n+1)
geom.Reihe
<
k=1
∞ λ≥0
3.3 Mensch gegen Maschine
Gary Kasparov und Deep Blue spielen Schach, wobei Deep Blue eine Partie mit Wahrscheinlichkeit p gewinnt. Wie viele Partien spielen die beiden im Mittel, bis einer von Ihnen zwei Partien in Folge für sich
entschieden hat?
• p: Wahrscheinlichkeit, dass Deep Blue gewinnt; q = 1 − p
• Di : Deep Blue gewinnte die i-te Partie
• X: Anzahl der Partiien, bis einer von beiden zwei Partien in Folge gewonnen hat
E[X] = E[X|D1 ] · Pr[D1 ] + E[X|D1 ] · Pr[D1 ]
E[X|D1 ] = E[X|D1 ∩ D2 ] · Pr[D2 |D1 ] + E[X|D1 ∩ D2 ] · Pr[D2 |D1 ] = q · 1 + E[X|D2 ] + 2p
= 1 + p + q · E[X|D1 ]
E[X|D1 ] = E[X|D1 ∩ D2 ] · Pr[D2 |D1 ] + E[X|D1 ∩ D2 ] · Pr[D2 |D1 ] = (1 + E[X|D2 ]) · p + 2q
= 1 + q + p · E[X|D1 ]
2 + p2
E[X|D1 ] = 1 + p + q · (1 + q + p · E[X|D1 ]) = 1 + p + q + q 2 + q · p · E[X|D1 ] =
1 − pq
2 + p2
E[X|D1 ] = 1 + q + p · 1 + p + q · E[X|D1 ] =
1 − pq
2p + pq 2 + 2q + p2 q
2 + pq
E[X] =
=
1 − pq
1 − pq
3.4 Gedächtnislosigkeit der geometrischen Verteilung
Eine Zufallsvariable X heißt gedächtnislos, falls für alle x, y ∈ WX gilt:
Pr[X > x + y|X > y] = Pr[X > x].
Zeigen Sie, dass eine Zufallsvariable mit Wertebereich N genau dann geometrisch verteilt ist, wenn sie
gedächtnislos ist.
,,⇐” X ∼ Geo(p)
Pr[X > x]
=
∞
X
Pr[X = k] =
k=x+1
Pr[X > x + y|X > y] =
∞
X
k=x+1
q k−1 · p = q x ·
∞
X
k=1
|
q x+y
Pr[X > x + y]
= y = q x = Pr[X > x]
Pr[X > y]
q
10
qk · p = qx
{z
=1
}
,,⇒” X gedächtnislos mit WX = N
Pr[X > x] = Pr[X > 1 + (x − 1)|X > x − 1]Pr[X > (x − 1)] = Pr[X > 1] ·Pr[X > x − 1] = . . .
| {z }
=:q
x
= Pr[X > 1] = q
x
Pr[X = k] = P r[X > k − 1] − Pr[X > k] = q k−1 − q k = q k−1 · 1 − q = q k−1 · p
| {z }
=p
3.5 Was trifft zu?
Zeigen oder widerlegen Sie:
(a) Für unabhängige Zufallsvariablen X und Y mit X ∼ Bernoulli(pX ), Y ∼ Bernoulli(pY ) und Z := X ·Y
gilt Z ∼ Bernoulli(pX · pY ).
Wahr.
WZ
= {0, 1}
Pr[Z = 1] = Pr[X = 1 ∧ Y = 1] = Pr[X = 1] · Pr[Y = 1] = pX · pY
Pr[Z = 0] = 1 − pX · pY
(b) Für unabhängige Zufallsvariablen
X und Y mit X ∼ Bernoulli(pX ), Y ∼ Bernoulli(pY ) und Z :=
Y
.
X + Y gilt Z ∼ Bernoulli pX +p
2
Falsch.
WZ
= {0, 1, 2}
Pr[Z = 2] = pX · pY > 0
(c) Für unabhängige Zufallsvariablen X und Y mit X ∼ Bin(n, p), Y ∼ Bin(m, p) und Z := X + Y gilt
Z ∼ Bin(n + m, p).
Wahr.
X
Y
=
=
n
X
i=1
m
X
i=1
Z
Xi
Xi ∼ Bernoulli(p)
Yi
Yi ∼ Bernoulli(p)
= X +Y =
n
X
i=1
Xi +
m
X
Yi
i=1
(d) Für unabhängige Zufallsvariablen
X und Y mit X ∼ Bin(n, pX ), Y ∼ Bin(n, pY ) und Z := X + Y gilt
Y
Z ∼ Bin 2n, pX +p
.
2
Falsch. Gegenbeispiel: X ∼ Bin(n, 1), Y ∼ Bin(n, 0)
Z =X +Y =i
i 6= n
i=n
Y
Das ist nicht die Verteilung Bin 2n, pX +p
.
2
Pr[Z = i]
0
1
(e) Für unabhängige Zufallsvariablen X und Y mit X ∼ Po(λ), Y ∼ Po(µ) und Z := X + Y gilt Z ∼
Po(λ + µ).
11
Wahr.
Pr[Z = z] = fZ (z)
=
∞
X
µ
λ
p:= λ+µ
, q:=1−p= λ+µ
=
z
X
e−λ λx e−µ µz−x
(z − x)!
x z−x
(λ + µ)z
z!
λ
µ
e−(λ+µ)
·
·
·
z!
x!(z − x)!
λ+µ
λ+µ
x=0
x=0
=
fX (x) · fY (z − x) =
z
X
e−(λ+µ) ·
(λ + µ)z
·
z!
x=0
x!
z X
z
x=0
|
x
px (1 − p)z−x
{z
=1=1z =(1−p+p)z =
=
(λ + µ)z
e−(λ+µ) ·
z!
12
z
P
}
( xz )px (1−p)z−x
x=0
4 Blatt 4
4.1 Schärfe der Markov-Ungleichung
Zeigen Sie, dass die Markov-Ungleichung in folgendem Sinne scharf ist: Geben Sie für jedes t ∈ N jeweils
eine positive Zufallsvariable X an, sodass
Pr[X ≥ t] =
E[X]
t
gilt.
X = t, d.h. Pr[X = t] = t
E[X]
=
∞
X
i=1
iPr[X = i] = t · Pr[X = t] = t · Pr[X ≥ t]
⇒ Pr[X ≥ T ] =
E[X]
t
4.2 Lastverteilung
Angenommen wir haben m Jobs, die wir auf n Rechner in einem Rechnernetz verteilen wollen, wobei
zusätzlich m > n gilt. Wir entscheiden uns für folgende Strategie: Jeder der m Jobs wird unabhängig und
gleichwahrscheinlich einem der n Rechner zugewiesen. Wir untersuchen die Zufallsvariablen
Xi = Anzahl der Jobs im i-ten Rechner
für i = 1, . . . n und X = max{Xi : i = 1, . . . n}. Zeigen Sie mit Hilfe der Chernoff-Schranke und der
Booleschen Ungleichung
r
m
1
m
+ 6 ln n ≤
Pr X ≥
n
n
n
Xi = max Xi
i
Behauptung
r
m
m
1
Pr X ≥
+ 6 ln n ≤
n
n
n
Beweis ∀t > 0
Pr[X ≥ t]
=
Korollar1.7
≤
E[X]
=
Pr [X1 ≥ (1 + δ) · E[X1 ]]
=
Chernoff
≤
⇔
⇔
⇒
Pr[max Xi ≥ t] = Pr[X1 ≥ t ∨ X2 ≥ t ∨ . . . Xn ≥ t]
i
n
X
i=1
!
Pr[Xi ≥ t] = n · Pr[X1 ≥ t] ≤
m
∀i = 1, . . . n
nh
Pr X1 ≥ (1 + δ) ·
1 m 2
n δ
e− 3
1
≤
1
n2
1
n
mi
n
m 2
δ ≥ 2 ln n
3n r
m
δ ≥ 6 ln n
n
r
m
m
m
t = (1 + δ) ≥ . . .
+ 6 ln n n
n
n
13
4.3 Verhältnis geometrisch verteilter Zufallsvariablen
Seien X ∼ Geo(px ) und Y ∼ Geo(pY ) unabhängig und R =
X
Y .
Berechnen Sie
(a) Pr[R > 1]
Pr[R > 1] = Pr[X > Y ] =
∞
X
i=1
=
∞
X
i i−1
qX
qY p Y
Pr[X > i|Y = i] · Pr[Y = i]
= q X pY
m
n
(qY qY )
i−1
=
= q X pY
∞
X
i=1
∞
X
i=1
i=1
(b) Pr R =
∞
X
unabh.
Pr[X > i] · Pr[Y = i]
(qX qY )i
geom.Reihe
=
q X pY
i=0
1
1 − q X qY
für teilerfremde Zahlen m, n ∈ N ⇔ ggT(m, n) = 1
h
mi
Pr R =
n
=
=
∞
X
i=1
∞
X
Pr[X = i · m ∧ Y = i · n]
i·m−1
qX
pX
i=1
=
·
qYi·n−1 pY
unabh.
=
pX pY
=
qX qY
m−1 n−1
p X p Y qX
qY
m qn
1 − qX
Y
∞
X
i=1
∞
X
Pr[X = i · m] · Pr[Y = i · n]
m n i
(qX
qY )
i=1
∞
X
pX pY
=
qX qY
m n i
(qX
qY )
i=0
−1
!
= ...
4.4 Chernoff für Summen geometrischer Zufallsvariablen
Seien Xi ∼ Geo
1
2
unabhängig für i = 1, . . . n und X =
n
P
Xi , sowie µ = E[X]. Zeigen Sie analog zum
i=1
Beweis der Chernoff-Schranke
Pr[X ≥ (1 + δ)µ] ≤
Satz
"
(1 + δ)1+δ
p
(1 + 2δ)1+2δ
Pr[X ≥ (1 + δ)µ] ≤ p
!2n
(1 + δ)(1+δ)
(1 + 2δ)( 1 + 2δ)
#2n
Beweis (analog zu Chernoff) 0 < t < ln 2
Pr[X ≥ (1 + δ)µ]
=
E[etX ]
=
Markov E[etX ]
Pr[etX ≥ et(1+δ)µ ] ≤
t(1+δ)µ
"
#e
Y
Y
P
Satz1.64
E[et· Xi ] = E
etXi
=
E[etXi ]
i
E[etXi ]
∞
X
=
etj Pr[Xi = j] =
j=1
=
j=0
(1), (3) ⇒ Pr[X ≥ (1 + δ)µ]
≤
f(t)
→
e
2
−1=
∞
X
etj
j X
∞ t j
1
e
=
2
2
j=1
1
et
−
1
=
t
2 − et
1 − e2
n
t
e
2 − et
min Berechnung mit Maple
e−t(1+δ)}mu
14
(2)
i
j=1
∞ t j
X
(1)
(3)
(4)
(5)
f(tmin )
=
e−tmin (1+δ)2n
=
=
=
"
=
h
1 − 2(1 + δ)
= −(1 + 2δ)
= − 21 2(1 + 2δ)
=
etmin
2 − etmin
1 + 2δ
1+δ
+(1+δ)2n
1+δ
1 + 2δ
(1+δ)2n
(1 + 2δ) ·
·
2
n
1+2δ
1+δ
− 1+2δ
1+δ
!n
(1 + 2δ)n
1+δ
1 + 2δ
2(1+δ) #n
(1 + δ)2(1+δ) · (1 + 2δ)1−2(1+δ)
"
15
(1 + δ)1+δ
p
(1 + 2δ)1+2δ
#2n
in
(6)
5 Blatt 5
5.1 Routerausfälle
Ein Rechnernetz enthalte n Router, die im Mittel jeweils t Zeiteinheiten zuverlässig laufen, bis es zu einem
Absturz oder ähnlichen Problemen kommt. Wir nehmen an, dass die Zeitdauer bis zum Absturz eines
einzelnen Routers exponentialverteilt ist und die Abstürze der Router unabhängig erfolgen. Ferner werden
für den reibungslosen Netzbetrieb alle Router benötigt. Geben Sie die Verteilung der Zeitdauer T bis zur
ersten Störung des Netzes an und berechnen sie E[T ].
• Ti : Zeit bis zum Absturz von Router i
• E[Ti ] = t
• Ti ∼ Exp
1
t
• T : Zeit bis zum ersten Ausfall
• T = min{Ti : i = 1, . . . n}
Satz 2.33 Die Zufallsvariablen X1 , . . . Xn seien unabhängig und exponentialverteiltP
mit den Parametern
n
λ1 , . . . λn . Dann ist X = min{Xi : i = 1, . . . n} exponential verteilt mit Parameter λ = i=1 λi .
n
⇒ T ∼ Exp
t
n
FT (x) = 1 − e− t x
t
E[T ] =
n
5.2 Verteilung von Betrag und Wurzel
Die Zufallsvariable
X besitze die Verteilung FX . Berechnen Sie die Verteilung und die Dichte von A := |X|
p
und B := |X|.
Pr[X ≤ t] = FX (t)
1.
A := |X|
FA (t)
=
=
=
fA (t)
=
OE t≤0
Pr[A ≤ t] = Pr[|X| ≤ t] = 1 − Pr[|X| ≥ t] = 1 − (Pr[X ≥ t|X ≥ 0] · Pr[X ≤ 0])
1 − (Pr[X ≥ T ] + Pr[X ≤ −t]) = 1 − (1 − Pr[X ≤ t] + Pr[X ≤ −t])
Pr[X ≤ t] − Pr[X ≤ −t] = FX (t) − FX (−t) = FA (t)
d
FA (t) = fX (t) − fX (−t)(−1) = fX + fX (−t)
dt
2.
B
:=
FB (t)
=
fB (t)
=
p
|X|
√
Pr[B ≤ t] = Pr[ A ≤ t] = Pr[A ≤ t2 ] = FA (t2 ) = FX (t2 ) − FX (−t2 )
d
FB (t) = fX (t2 ) · 2t − fX (−t2 )(−2t) = 2t(fX )(t2 ) − fX (−t2 )
dt
16
5.3 Punkt im Dreieck
In einem Dreieck mimt Grundseite g und Höhe h werde ein Punkt P gleichverteilt gewählt. X sei die
Entfernung von P zur Grundseite. Berechnen Sie Verteilung und Dichte von X.
C
h’
K
g’
h
A
P
L
X=t
B
g
1
· g · h Flächeninhalt des Dreiecks
2
g0
h0
h0
=
⇒ g0 = g
g
h
h
h0 = h − t
h−t
1 0 0
gh
(h − t)
(h − t)2
4(K, L, C)
Pr[X ≥ t] =
= 21
= h
=
4(A, B, C)
h
h2
2 gh
4(A, B, C)
=
(h − t)2
= FX (t)
h2
d
h2 · 2(h − t)(−1) − (h − t)2 · 0
h−t
FX (t) =
=2· 2
dt
h4
h
⇒ Pr[X ≤ t] = 1 −
fX (t)
=
5.4 Lebensdauer
Gegeben seien zwei Glühbirnen mit unabhängiger und exponentialverteilter Lebensdauer (jeweils mit
Parameter λ = 1). Ferner bezeichne die Zufallsvariable X ∼ Exp(1) die Lebensdauer der ersten und
X
, die den Anteil der
Y ∼ Exp(1) die der zweiten Glühbirne. Zeigen Sie, dass die Zufallsvariable Z := X+Y
ersten Glühbirne an der Gesamtlebensdauer misst, gleichverteilt auf [0, 1] ist.
Zu zeigen:

 0 für t < 0 klar
t für 0 ≤ t ≤ 1
Pr[Z ≤ t] =

1 für t > 1 klar
X
t
Pr[Z ≤ t] = Pr
≤ t = Pr[X ≤ tX + tY ] = Pr X ≤
Y
X +Y
1−t
=
t
Z∞ 1−t
Z y
Z∞
Z∞
t
− 1−t
t
y
−x −y
−y
e e dxdy =
e
−e x 0
dy =
e−y 1 − e− 1−t y dy
y=0 x=0
=
−y ∞
−e
−
0
y=0
y=0
Z∞
y=0
e−y( 1−t + 1−t ) dy = 1 −
t
1−t
= 1 − (1 − t) = t
17
Z∞
y=0
h
i∞
1
1
e−y( 1−t ) dy = 1 − −(1 − t) · e−y( 1−t )
0
5.5 Erlang-Verteilung
Seien die Zufallsvariablen
Xi ∼ Exp(λ) für i = 1, . . . n unabhängig, exponentialverteilt mit Parameter
Pn
λ > 0 und X :=
X
.
Zeigen Sie (mit vollständiger Induktion nach n), dass X ∼ Er(λ, n) Erlangi
i=1
verteilt mit Parameter λ und Stufenzahl n ist, d.h. die Verteilung
FX (t) = Pr[X ≤ t] = 1 −
n−1
X
i=0
(λt)i −λt
e
i!
besitzt.
Xi
∼
Exp(λ)
n
X
:=
Xi
X
i = 1, . . . n, unabhängig
i=1
Wir leiten zunächst ab:
fX (t)
d
d
FX (t) =
dt
dt
=
n−1
X
=
i=0
1−
i−1
−
n−1
X
i=0
(λt)i −λt
e
i!
i
(λt)
(λt)
λe−λt +
λe−λt
(i − 1)!
i!
!
=−
n−1
X
i=0
Teleskopsumme
=
(λt)i−1
(λt)i
iλe−λt +
(−λ)e−λt
i!
i!
λn
tn−1 −λt
e
(n − 1)!
Induktionsverankerung n = 1
X
fX
= X1 ∼ Exp(λ)
t0
= λ1 · e−λt = λe−λt = fX1 (t)
0!
Induktionsschluss n y n + 1
X
=
X1 + . . . + Xn + Xn+1
|
{z
} | {z }
=:Y ∼Er(λ,n)
fX (t)
Satz 2.37
=
∼Exp(λ)
+∞
Z
Z
sn−1 −λs
I.V.
fY (s) · fXn+1 (t − s)ds =
tλn
e
· λe−λ(t−s) ds
(n − 1)!
−∞
=
=
0
λn+1 −λt
e
(n − 1)!
λn+1
Zt
0
s
n−1
t
λn+1 −λt 1 n
λn+1 n
ds =
e
·s
=
t
(n − 1)!
n
n!
0
tn −λt
e
n!
18
!
Korrekturen
Datum
12.05.2003
13.05.2003
13.05.2003
13.05.2003
15.05.2003
Aufgabe
2.4.a
1.3
1.2
1.4
2.1
15.05.2003
15.05.2003
17.05.2003
17.05.2003
21.05.2003
3.3
2.4.a
5.3
5.3
1.4
22.05.2003
3.2
Fehler bzw. Korrektur
1
Var[S] = 12
· k · (n + 1) · (n − 1)
Pr[U1 ] = Pr[U2 ] = 1/2, Pr[W |U1 ] = 2/9
Der Faktor muss k! und nicht k 0 sein!
Pr[D] = 1 − e−... (Minuszeichen im Exponenten)
4
Pr[R] = 52
(Ziehen von 5 Karten)
(5)
E[X|D1 ] = . . . = 1 + q + p + E[X|D1 ] in der zweiten Gleichung (also ¬D1 )
Var[S] fehlt vor der letzten Zeile
Zeichnung hinzugefügt
2
2
·0
d
fX (t) = dt
FX (t)
= h ·2(h−t)(−1)−(h−t)
= 2 · h−t
h4
h2 (Potenzen im Nenner)
49
Pr[ωi ] = 1/ 6
n
Q
1
i
Pr[X > n] = . . . =
i+1 = n+1
i=1
19
Herunterladen