Grundlagen der Wahrscheinlichkeitsrechnung Die erwartete Höhe

Werbung
Endlicher Wahrscheinlichkeitsraum
Zufallsvariablen
Bedingte Wahrscheinlichkeit
Bedingter Erwartungswert
Markov-Ungleichung
Endlicher Wahrscheinlichkeitsraum
Grundlagen der Wahrscheinlichkeitsrechnung
Die erwartete Höhe eines Treaps
Sei
Pr [!]
P
!2⌦
GW
Endlicher Wahrscheinlichkeitsraum
Zufallsvariablen
Bedingte Wahrscheinlichkeit
Bedingter Erwartungswert
Markov-Ungleichung
Treaps
GW
Endlicher Wahrscheinlichkeitsraum
Zufallsvariablen
Bedingte Wahrscheinlichkeit
Bedingter Erwartungswert
Markov-Ungleichung
Definition
Zufallsexperiment
Ereignisse
Endlicher Wahrscheinlichkeitsraum
Sei
0 für alle ! 2 ⌦
Pr [!] = 1
Pr [!]
P
!2⌦
0 für alle ! 2 ⌦
Pr [!] = 1
Definition
Zufallsexperiment
Ereignisse
Endlicher Wahrscheinlichkeitsraum
GW
Treaps
Pr [!]
P
0 für alle ! 2 ⌦
Pr [!] = 1
(⌦, Pr) ist ein endlicher Wahrscheinlichkeitsraum.
GW
Endlicher Wahrscheinlichkeitsraum
Zufallsvariablen
Bedingte Wahrscheinlichkeit
Bedingter Erwartungswert
Markov-Ungleichung
Treaps
Definition
Zufallsexperiment
Ereignisse
Wahrscheinlichkeitsraum - roter und blauer Würfel
Mögliche Würfelergebnisse:
⌦ eine endliche Menge;
Pr : ⌦ ! R eine Funktion, die jedem Element ! 2 ⌦ eine
Wahrscheinlichkeit zuordnet.
Pr [!]
P
!2⌦
(⌦, Pr) ist ein endlicher Wahrscheinlichkeitsraum.
⌦ eine endliche Menge;
Pr : ⌦ ! R eine Funktion, die jedem Element ! 2 ⌦ eine
Wahrscheinlichkeit zuordnet.
Treaps
Sei
⌦ eine endliche Menge;
Pr : ⌦ ! R eine Funktion, die jedem Element ! 2 ⌦ eine
Wahrscheinlichkeit zuordnet.
Endlicher Wahrscheinlichkeitsraum
!2⌦
(⌦, Pr) ist ein endlicher Wahrscheinlichkeitsraum.
11. Dezember 2012
Definition
Zufallsexperiment
Ereignisse
Sei
⌦ eine endliche Menge;
Pr : ⌦ ! R eine Funktion, die jedem Element ! 2 ⌦ eine
Wahrscheinlichkeit zuordnet.
B. Gärtner, E. Welzl
Endlicher Wahrscheinlichkeitsraum
Zufallsvariablen
Bedingte Wahrscheinlichkeit
Bedingter Erwartungswert
Markov-Ungleichung
Definition
Zufallsexperiment
Ereignisse
0 für alle ! 2 ⌦
Pr [!] = 1
⌦ = {(i, j) : 1  i, j  6}.
(i: roter Würfel, j: blauer Würfel)
Wahrscheinlichkeiten:
(⌦, Pr) ist ein endlicher Wahrscheinlichkeitsraum.
Pr [(i, j)] =
GW
Treaps
GW
1
,
36
1  i, j  6.
Treaps
Endlicher Wahrscheinlichkeitsraum
Zufallsvariablen
Bedingte Wahrscheinlichkeit
Bedingter Erwartungswert
Markov-Ungleichung
Definition
Zufallsexperiment
Ereignisse
Wahrscheinlichkeitsraum - roter und blauer Würfel
Mögliche Würfelergebnisse:
⌦ = {(i, j) : 1  i, j  6}.
(i: roter Würfel, j: blauer Würfel)
Wahrscheinlichkeiten:
Endlicher Wahrscheinlichkeitsraum
Zufallsvariablen
Bedingte Wahrscheinlichkeit
Bedingter Erwartungswert
Markov-Ungleichung
Definition
Zufallsexperiment
Ereignisse
Zufallsexperiment
GW
Endlicher Wahrscheinlichkeitsraum
Zufallsvariablen
Bedingte Wahrscheinlichkeit
Bedingter Erwartungswert
Markov-Ungleichung
1
,
36
Definition
Zufallsexperiment
Ereignisse
Zufallsexperiment
Definition
Ein Zufallsexperiment über (⌦, Pr) ist eine Prozedur, die beliebig
oft wiederholt werden kann und jedes Mal ein Ergebnis (Element
! 2 ⌦) produziert.
Die Wahrscheinlichkeit für das Ergebnis ! ist dabei Pr [!].
Pr [(i, j)] =
Endlicher Wahrscheinlichkeitsraum
Zufallsvariablen
Bedingte Wahrscheinlichkeit
Bedingter Erwartungswert
Markov-Ungleichung
Definition
Ein Zufallsexperiment über (⌦, Pr) ist eine Prozedur, die beliebig
oft wiederholt werden kann und jedes Mal ein Ergebnis (Element
! 2 ⌦) produziert.
Die Wahrscheinlichkeit für das Ergebnis ! ist dabei Pr [!].
1  i, j  6.
Treaps
Definition
Zufallsexperiment
Ereignisse
Zufallsexperiment
GW
Endlicher Wahrscheinlichkeitsraum
Zufallsvariablen
Bedingte Wahrscheinlichkeit
Bedingter Erwartungswert
Markov-Ungleichung
Treaps
Definition
Zufallsexperiment
Ereignisse
Zufallsexperiment - roter und blauer Würfel
GW
Endlicher Wahrscheinlichkeitsraum
Zufallsvariablen
Bedingte Wahrscheinlichkeit
Bedingter Erwartungswert
Markov-Ungleichung
Treaps
Definition
Zufallsexperiment
Ereignisse
Zufallsexperiment - roter und blauer Würfel
Definition
Ein Zufallsexperiment über (⌦, Pr) ist eine Prozedur, die beliebig
oft wiederholt werden kann und jedes Mal ein Ergebnis (Element
! 2 ⌦) produziert.
Die Wahrscheinlichkeit für das Ergebnis ! ist dabei Pr [!].
Vorstellung: Das Ergebnis wird aus einer Schale mit Kugeln
gezogen; der Anteil der Kugeln mit Beschriftung ! ist Pr [!].
GW
Treaps
Zufallsexperiment wird ausgeführt durch...
Würfeln!
Zufallsexperiment wird ausgeführt durch...
Würfeln!
GW
Treaps
GW
Treaps
Endlicher Wahrscheinlichkeitsraum
Zufallsvariablen
Bedingte Wahrscheinlichkeit
Bedingter Erwartungswert
Markov-Ungleichung
Endlicher Wahrscheinlichkeitsraum
Zufallsvariablen
Bedingte Wahrscheinlichkeit
Bedingter Erwartungswert
Markov-Ungleichung
Definition
Zufallsexperiment
Ereignisse
Ereignisse
Endlicher Wahrscheinlichkeitsraum
Zufallsvariablen
Bedingte Wahrscheinlichkeit
Bedingter Erwartungswert
Markov-Ungleichung
Definition
Zufallsexperiment
Ereignisse
Ereignisse
Definition
Ein Ereignis ist eine Teilmenge A ✓ ⌦ des
Wahrscheinlichkeitsraums.
Die Wahrscheinlichkeit von A ist Pr [A] :=
P
Pr [!].
Für ! 2 ⌦ ist {!} ein Elementarereignis und wird auch
einfach als ! geschrieben.
) Wenn B1 , . . . , Bk disjunkte Ereignisse sind, so gilt
" k
#
k
[
X
Pr
Bi =
Pr [Bi ].
i=1
Endlicher Wahrscheinlichkeitsraum
Zufallsvariablen
Bedingte Wahrscheinlichkeit
Bedingter Erwartungswert
Markov-Ungleichung
Die Wahrscheinlichkeit von A ist Pr [A] :=
P
i=1
i=1
GW
Endlicher Wahrscheinlichkeitsraum
Zufallsvariablen
Bedingte Wahrscheinlichkeit
Bedingter Erwartungswert
Markov-Ungleichung
Definition
Zufallsexperiment
Ereignisse
Ereignisse
P
Definition
Zufallsexperiment
Ereignisse
Das Ereignis “Pasch” ist
!2A
) Wenn B1 , . . . , Bk disjunkte Ereignisse sind, so gilt
" k
#
k
[
X
Pr
Bi =
Pr [Bi ].
i=1
i=1
GW
Treaps
A = {(i, i) : 1  i  6}
und hat Wahrscheinlichkeit
Pr [A] = 6 ·
Das Ereignis
Die Wahrscheinlichkeit von A ist Pr [A] :=
P
!2A
Pr [!].
Für ! 2 ⌦ ist {!} ein Elementarereignis und wird auch
einfach als ! geschrieben.
) Wenn B1 , . . . , Bk disjunkte Ereignisse sind, so gilt
" k
#
k
[
X
Pr
Bi =
Pr [Bi ].
i=1
i=1
GW
Endlicher Wahrscheinlichkeitsraum
Zufallsvariablen
Bedingte Wahrscheinlichkeit
Bedingter Erwartungswert
Markov-Ungleichung
Treaps
Definition
Zufallsexperiment
Ereignisse
Ereignisse - roter und blauer Würfel
Sei Bi das Ereignis “roter Würfel zeigt i”, i = 1, 2, . . . , 6.
Pr [!].
Für ! 2 ⌦ ist {!} ein Elementarereignis und wird auch
einfach als ! geschrieben.
Pr [!].
Treaps
Ereignisse - roter und blauer Würfel
Die Wahrscheinlichkeit von A ist Pr [A] :=
!2A
Für ! 2 ⌦ ist {!} ein Elementarereignis und wird auch
einfach als ! geschrieben.
Treaps
Definition
Ein Ereignis ist eine Teilmenge A ✓ ⌦ des
Wahrscheinlichkeitsraums.
Definition
Ein Ereignis ist eine Teilmenge A ✓ ⌦ des
Wahrscheinlichkeitsraums.
) Wenn B1 , . . . , Bk disjunkte Ereignisse sind, so gilt
" k
#
k
[
X
Pr
Bi =
Pr [Bi ].
i=1
GW
Ereignisse
Definition
Ein Ereignis ist eine Teilmenge A ✓ ⌦ des
Wahrscheinlichkeitsraums.
!2A
Definition
Zufallsexperiment
Ereignisse
1
1
= .
36
6
Die Ereignissse Bi sind disjunkt, also gilt zum Beispiel
Pr [B1 [ B2 ] =
=
Pr [roter Würfel zeigt 1 oder 2]
1 1
1
Pr [B1 ] + Pr [B2 ] = + = .
6 6
3
ist ein Elementarereignis.
GW
Treaps
GW
Treaps
Endlicher Wahrscheinlichkeitsraum
Zufallsvariablen
Bedingte Wahrscheinlichkeit
Bedingter Erwartungswert
Markov-Ungleichung
Definition
Zufallsexperiment
Ereignisse
Ereignisse - roter und blauer Würfel
Sei Bi das Ereignis “roter Würfel zeigt i”, i = 1, 2, . . . , 6.
Die Ereignissse Bi sind disjunkt, also gilt zum Beispiel
Pr [B1 [ B2 ] =
=
Pr [roter Würfel zeigt 1 oder 2]
1 1
1
Pr [B1 ] + Pr [B2 ] = + = .
6 6
3
GW
Endlicher Wahrscheinlichkeitsraum
Zufallsvariablen
Bedingte Wahrscheinlichkeit
Bedingter Erwartungswert
Markov-Ungleichung
Treaps
Definition
Erwartungswert
Das schwache Gesetz der grossen Zahlen
Linearität des Erwartungswerts
Zufallsvariablen - roter und blauer Würfel
Sei X (i, j) = i + j die Summe beider Würfelaugen.
Das Ereignis {X = 7} ist
Endlicher Wahrscheinlichkeitsraum
Zufallsvariablen
Bedingte Wahrscheinlichkeit
Bedingter Erwartungswert
Markov-Ungleichung
Definition
Erwartungswert
Das schwache Gesetz der grossen Zahlen
Linearität des Erwartungswerts
Zufallsvariablen
Definition
Sei S = (⌦, Pr) ein endlicher Wahrscheinlichkeitsraum. Eine
Funktion X : ⌦ ! R heisst Zufallsvariable über S.
Für eine reelle Zahl r 2 R definieren wir das Ereignis
Definition
Sei S = (⌦, Pr) ein endlicher Wahrscheinlichkeitsraum. Eine
Funktion X : ⌦ ! R heisst Zufallsvariable über S.
Für eine reelle Zahl r 2 R definieren wir das Ereignis
{X = r } := {! 2 ⌦ : X (!) = r },
{X = r } := {! 2 ⌦ : X (!) = r },
wobei wir die geschweiften Klammern in Ausdrücken oft weglassen,
z.B. in Pr [X = r ].
wobei wir die geschweiften Klammern in Ausdrücken oft weglassen,
z.B. in Pr [X = r ].
GW
Endlicher Wahrscheinlichkeitsraum
Zufallsvariablen
Bedingte Wahrscheinlichkeit
Bedingter Erwartungswert
Markov-Ungleichung
Treaps
Definition
Erwartungswert
Das schwache Gesetz der grossen Zahlen
Linearität des Erwartungswerts
Zufallsvariablen - roter und blauer Würfel
Sei X (i, j) = i + j die Summe beider Würfelaugen.
{X = 7} = {(1, 6), (2, 5), (3, 4), (4, 3), (5, 2), (6, 1)}.
GW
Es hat Wahrscheinlichkeit
Pr [X = 7] =
GW
6
1
= .
36
6
Treaps
GW
6
1
= .
36
6
Treaps
Definition
Erwartungswert
Das schwache Gesetz der grossen Zahlen
Linearität des Erwartungswerts
Erwartungswert
Definition
Der Erwartungswert einer Zufallsvariablen ist definiert als
X
E[X ] :=
X (!) Pr [!].
!2⌦
E[X ] :=
Pr [X = 7] =
Treaps
Endlicher Wahrscheinlichkeitsraum
Zufallsvariablen
Bedingte Wahrscheinlichkeit
Bedingter Erwartungswert
Markov-Ungleichung
Äquivalent,
Es hat Wahrscheinlichkeit
Definition
Erwartungswert
Das schwache Gesetz der grossen Zahlen
Linearität des Erwartungswerts
Zufallsvariablen
Das Ereignis {X = 7} ist
{X = 7} = {(1, 6), (2, 5), (3, 4), (4, 3), (5, 2), (6, 1)}.
Endlicher Wahrscheinlichkeitsraum
Zufallsvariablen
Bedingte Wahrscheinlichkeit
Bedingter Erwartungswert
Markov-Ungleichung
X
r 2R
r · Pr [X = r ],
wobei diese Summe natürlich endlich ist.
GW
Treaps
Endlicher Wahrscheinlichkeitsraum
Zufallsvariablen
Bedingte Wahrscheinlichkeit
Bedingter Erwartungswert
Markov-Ungleichung
Definition
Erwartungswert
Das schwache Gesetz der grossen Zahlen
Linearität des Erwartungswerts
Erwartungswert
Endlicher Wahrscheinlichkeitsraum
Zufallsvariablen
Bedingte Wahrscheinlichkeit
Bedingter Erwartungswert
Markov-Ungleichung
Definition
Erwartungswert
Das schwache Gesetz der grossen Zahlen
Linearität des Erwartungswerts
Erwartungswert - roter und blauer Würfel
Definition
Der Erwartungswert einer Zufallsvariablen ist definiert als
X
E[X ] :=
X (!) Pr [!].
E[X ] =
!2⌦
Äquivalent,
E[X ] :=
X
r 2R
r · Pr [X = r ],
wobei diese Summe natürlich endlich ist.
GW
Endlicher Wahrscheinlichkeitsraum
Zufallsvariablen
Bedingte Wahrscheinlichkeit
Bedingter Erwartungswert
Markov-Ungleichung
Das schwache Gesetz der grossen Zahlen
Beispiel:
(6i + 21)
Hier gilt E[X ] = 12 , ein recht untypischer und eher seltener
Wert von X .
⌦ = {0, 1},
1
36
=
1
(6 · 21 + 6 · 21) = 7.
36
i=1
GW
Definition
Erwartungswert
Das schwache Gesetz der grossen Zahlen
Linearität des Erwartungswerts
E[X ] ist im allgemeinen nicht der “typische” oder “häufigste”
Wert von X .
=
Treaps
Endlicher Wahrscheinlichkeitsraum
Zufallsvariablen
Bedingte Wahrscheinlichkeit
Bedingter Erwartungswert
Markov-Ungleichung
GW
Definition
Erwartungswert
Das schwache Gesetz der grossen Zahlen
Linearität des Erwartungswerts
Was sagt E[X ] über X aus?
E[X ] ist im allgemeinen nicht der “typische” oder “häufigste”
Wert von X .
Beispiel:
Beispiel:
Pr [0] = Pr [1] = 1/2,
X (!) = !.
Hier gilt E[X ] = 12 , ein recht untypischer und eher seltener
Wert von X .
GW
Treaps
⌦ = {0, 1},
Endlicher Wahrscheinlichkeitsraum
Zufallsvariablen
Bedingte Wahrscheinlichkeit
Bedingter Erwartungswert
Markov-Ungleichung
X (!) = !.
Treaps
Definition
Erwartungswert
Das schwache Gesetz der grossen Zahlen
Linearität des Erwartungswerts
Das schwache Gesetz der grossen Zahlen
E[X ] ist im allgemeinen nicht der “typische” oder “häufigste”
Wert von X .
⌦ = {0, 1},
Pr [0] = Pr [1] = 1/2,
Treaps
Das schwache Gesetz der grossen Zahlen
Was sagt E[X ] über X aus?
Was sagt E[X ] über X aus?
1
(i + j)
36
i=1 j=1
6
X
Definition
Erwartungswert
Das schwache Gesetz der grossen Zahlen
Linearität des Erwartungswerts
Das schwache Gesetz der grossen Zahlen
Sei X (i, j) = i + j die Summe beider Würfelaugen.
6 X
6
X
Endlicher Wahrscheinlichkeitsraum
Zufallsvariablen
Bedingte Wahrscheinlichkeit
Bedingter Erwartungswert
Markov-Ungleichung
Theorem
Seien !1 , !2 , . . . , !n die Ergebnisse n unabhängiger
Zufallsexperimente über (⌦, Pr). Dann gilt
n
Pr [0] = Pr [1] = 1/2,
X (!) = !.
Hier gilt E[X ] = 12 , ein recht untypischer und eher seltener
Wert von X .
GW
Treaps
1X
X (!i ) !n!1 E[X ].
n
i=1
Das heisst, der durschnittliche Wert von X über viele Experimente
konvergiert gegen den Erwartungswert.
GW
Treaps
Endlicher Wahrscheinlichkeitsraum
Zufallsvariablen
Bedingte Wahrscheinlichkeit
Bedingter Erwartungswert
Markov-Ungleichung
Endlicher Wahrscheinlichkeitsraum
Zufallsvariablen
Bedingte Wahrscheinlichkeit
Bedingter Erwartungswert
Markov-Ungleichung
Definition
Erwartungswert
Das schwache Gesetz der grossen Zahlen
Linearität des Erwartungswerts
Das schwache Gesetz der grossen Zahlen - roter und blauer
Würfel
Endlicher Wahrscheinlichkeitsraum
Zufallsvariablen
Bedingte Wahrscheinlichkeit
Bedingter Erwartungswert
Markov-Ungleichung
Definition
Erwartungswert
Das schwache Gesetz der grossen Zahlen
Linearität des Erwartungswerts
Linearität des Erwartungswerts
Linearität des Erwartungswerts
Theorem
Seien X1 , X2 zwei Zufallsvariablen über S = (⌦, Pr). Dann gilt
Theorem
Seien X1 , X2 zwei Zufallsvariablen über S = (⌦, Pr). Dann gilt
E[X1 + X2 ] = E[X1 ] + E[X2 ],
Nach einer Million mal würfeln (Computer):
Durschnittliche Augenzahl 7.04 ⇡ E[X ] = 7.
wobei X1 + X2 die Zufallsvariable ist, die durch
(X1 + X2 )(!) := X1 (!) + X2 (!) definiert ist.
Beweis:
X
(X1 + X2 )(!) Pr [!] =
!2⌦
=
X
X1 (!) Pr [!] +
!2⌦
Endlicher Wahrscheinlichkeitsraum
Zufallsvariablen
Bedingte Wahrscheinlichkeit
Bedingter Erwartungswert
Markov-Ungleichung
Treaps
Linearität des Erwartungswerts - roter und blauer Würfel
Definiere Zufallsvariablen X1 , X2 durch
X1 (i, j) = i,
X
X
(X1 (!) + X2 (!)) Pr [!]
Endlicher Wahrscheinlichkeitsraum
Zufallsvariablen
Bedingte Wahrscheinlichkeit
Bedingter Erwartungswert
Markov-Ungleichung
(X1 + X2 )(!) Pr [!] =
=
X
X1 (!) Pr [!] +
!2⌦
Treaps
Endlicher Wahrscheinlichkeitsraum
Zufallsvariablen
Bedingte Wahrscheinlichkeit
Bedingter Erwartungswert
Markov-Ungleichung
Definition
Erwartungswert
Das schwache Gesetz der grossen Zahlen
Linearität des Erwartungswerts
X
X
(X1 (!) + X2 (!)) Pr [!]
!2⌦
X2 (!) Pr [!] = E[X1 ] + E[X2 ].
!2⌦
GW
Definiere Zufallsvariablen X1 , X2 durch
X1 (i, j) = i,
X
!2⌦
X2 (!) Pr [!] = E[X1 ] + E[X2 ].
Linearität des Erwartungswerts - roter und blauer Würfel
X2 (i, j) = j.
E[X1 + X2 ] =
!2⌦
!2⌦
GW
Definition
Erwartungswert
Das schwache Gesetz der grossen Zahlen
Linearität des Erwartungswerts
E[X1 + X2 ] = E[X1 ] + E[X2 ],
wobei X1 + X2 die Zufallsvariable ist, die durch
(X1 + X2 )(!) := X1 (!) + X2 (!) definiert ist.
Beweis:
E[X1 + X2 ] =
GW
Definition
Erwartungswert
Das schwache Gesetz der grossen Zahlen
Linearität des Erwartungswerts
Treaps
Definition
Erwartungswert
Das schwache Gesetz der grossen Zahlen
Linearität des Erwartungswerts
Linearität des Erwartungswerts - roter und blauer Würfel
Definiere Zufallsvariablen X1 , X2 durch
X2 (i, j) = j.
X1 (i, j) = i,
X2 (i, j) = j.
X = X1 + X2 ist die Summe der Augenzahlen, mit E[X ] = 7.
Es gilt
{X1 = i} = {(i, j) : 1  j  6},
X = X1 + X2 ist die Summe der Augenzahlen, mit E[X ] = 7.
Es gilt
{X1 = i} = {(i, j) : 1  j  6},
X = X1 + X2 ist die Summe der Augenzahlen, mit E[X ] = 7.
Es gilt
{X1 = i} = {(i, j) : 1  j  6},
also
also
also
1
Pr [X1 = i] = ,
6
GW
E[X1 ] =
6
X
1
21
i = .
6
6
i=1
Treaps
1
Pr [X1 = i] = ,
6
GW
E[X1 ] =
6
X
1
21
i = .
6
6
i=1
Treaps
1
Pr [X1 = i] = ,
6
GW
E[X1 ] =
6
X
1
21
i = .
6
6
i=1
Treaps
Endlicher Wahrscheinlichkeitsraum
Zufallsvariablen
Bedingte Wahrscheinlichkeit
Bedingter Erwartungswert
Markov-Ungleichung
Definition
Erwartungswert
Das schwache Gesetz der grossen Zahlen
Linearität des Erwartungswerts
Linearität des Erwartungswerts - roter und blauer Würfel
Für X2 analog:
E[X2 ] =
Endlicher Wahrscheinlichkeitsraum
Zufallsvariablen
Bedingte Wahrscheinlichkeit
Bedingter Erwartungswert
Markov-Ungleichung
Linearität des Erwartungswerts - roter und blauer Würfel
Für X2 analog:
6
X
1
21
j = .
6
6
Definition
Erwartungswert
Das schwache Gesetz der grossen Zahlen
Linearität des Erwartungswerts
E[X2 ] =
j=1
Definition
Seien A, B ✓ ⌦ zwei Ereignisse, B 6= ;. Die Wahrscheinlichkeit von
A, gegeben B, ist
6
X
1
21
j = .
6
6
Pr [A | B] :=
Linearität:
42
= 7.
6
E[X ] = E[X1 + X2 ] = E[X1 ] + E[X2 ] =
Definition
Totale Wahrscheinlichkeit
Bedingte Wahrscheinlichkeit
j=1
Linearität:
E[X ] = E[X1 + X2 ] = E[X1 ] + E[X2 ] =
Endlicher Wahrscheinlichkeitsraum
Zufallsvariablen
Bedingte Wahrscheinlichkeit
Bedingter Erwartungswert
Markov-Ungleichung
42
= 7.
6
Pr [A \ B]
.
Pr [B]
P
Bemerkung: Es gilt !2B Pr [! | B] = 1, also definiert die
bedingte Wahrscheinlichkeitsfunktion PrB : B ! R, mit
PrB [!] = Pr [! | B]
einen bedingten Wahrscheinlichkeitsraum (B, PrB ).
GW
Endlicher Wahrscheinlichkeitsraum
Zufallsvariablen
Bedingte Wahrscheinlichkeit
Bedingter Erwartungswert
Markov-Ungleichung
Treaps
Definition
Totale Wahrscheinlichkeit
Bedingte Wahrscheinlichkeit
Pr [A \ B]
.
Pr [B]
P
Bemerkung: Es gilt !2B Pr [! | B] = 1, also definiert die
bedingte Wahrscheinlichkeitsfunktion PrB : B ! R, mit
PrB [!] = Pr [! | B]
einen bedingten Wahrscheinlichkeitsraum (B, PrB ).
GW
Endlicher Wahrscheinlichkeitsraum
Zufallsvariablen
Bedingte Wahrscheinlichkeit
Bedingter Erwartungswert
Markov-Ungleichung
Treaps
Definition
Totale Wahrscheinlichkeit
Bedingte Wahrscheinlichkeit - roter und blauer Würfel
Definition
Seien A, B ✓ ⌦ zwei Ereignisse, B 6= ;. Die Wahrscheinlichkeit von
A, gegeben B, ist
Pr [A | B] :=
GW
Treaps
GW
Endlicher Wahrscheinlichkeitsraum
Zufallsvariablen
Bedingte Wahrscheinlichkeit
Bedingter Erwartungswert
Markov-Ungleichung
Treaps
Definition
Totale Wahrscheinlichkeit
Bedingte Wahrscheinlichkeit - roter und blauer Würfel
Was ist die Wahrscheinlichkeit, einen Pasch zu würfeln (Ereignis
A), gegeben, dass wir keine 6 würfeln (Ereignis B)?
Was ist die Wahrscheinlichkeit, einen Pasch zu würfeln (Ereignis
A), gegeben, dass wir keine 6 würfeln (Ereignis B)?
Es gilt A \ B = {(1, 1), (2, 2), (3, 3), (4, 4), (5, 5)}, also
Pr [A \ B] = 5/36.
Es gilt A \ B = {(1, 1), (2, 2), (3, 3), (4, 4), (5, 5)}, also
Pr [A \ B] = 5/36.
Es folgt:
Es folgt:
Pr [B] = 1 Pr [C ], wobei C das Ereignis “6 gewürfelt” ist:
C = {(1, 6), . . . , (5, 6), (6, 6), (6, 5), . . . , (6, 1)}, also
Pr [C ] = 11/36 and Pr [B] = 25/36.
Pr [A \ B]
5 36
1
Pr [A | B] =
=
·
= .
Pr [B]
36 25
5
GW
Treaps
Pr [B] = 1 Pr [C ], wobei C das Ereignis “6 gewürfelt” ist:
C = {(1, 6), . . . , (5, 6), (6, 6), (6, 5), . . . , (6, 1)}, also
Pr [C ] = 11/36 and Pr [B] = 25/36.
Pr [A | B] =
Pr [A \ B]
5 36
1
=
·
= .
Pr [B]
36 25
5
GW
Treaps
Endlicher Wahrscheinlichkeitsraum
Zufallsvariablen
Bedingte Wahrscheinlichkeit
Bedingter Erwartungswert
Markov-Ungleichung
Endlicher Wahrscheinlichkeitsraum
Zufallsvariablen
Bedingte Wahrscheinlichkeit
Bedingter Erwartungswert
Markov-Ungleichung
Definition
Totale Wahrscheinlichkeit
Bedingte Wahrscheinlichkeit - roter und blauer Würfel
Endlicher Wahrscheinlichkeitsraum
Zufallsvariablen
Bedingte Wahrscheinlichkeit
Bedingter Erwartungswert
Markov-Ungleichung
Definition
Totale Wahrscheinlichkeit
Bedingte Wahrscheinlichkeit - roter und blauer Würfel
Theorem
Wenn B1 , . . . , Bk eine Partition von ⌦ bilden, dann gilt
Was ist die Wahrscheinlichkeit, einen Pasch zu würfeln (Ereignis
A), gegeben, dass wir keine 6 würfeln (Ereignis B)?
Was ist die Wahrscheinlichkeit, einen Pasch zu würfeln (Ereignis
A), gegeben, dass wir keine 6 würfeln (Ereignis B)?
Es gilt A \ B = {(1, 1), (2, 2), (3, 3), (4, 4), (5, 5)}, also
Pr [A \ B] = 5/36.
Es gilt A \ B = {(1, 1), (2, 2), (3, 3), (4, 4), (5, 5)}, also
Pr [A \ B] = 5/36.
Pr [B] = 1 Pr [C ], wobei C das Ereignis “6 gewürfelt” ist:
C = {(1, 6), . . . , (5, 6), (6, 6), (6, 5), . . . , (6, 1)}, also
Pr [C ] = 11/36 and Pr [B] = 25/36.
für jedes Ereignis A.
Es folgt:
Es folgt:
k
X
Pr [B] = 1 Pr [C ], wobei C das Ereignis “6 gewürfelt” ist:
C = {(1, 6), . . . , (5, 6), (6, 6), (6, 5), . . . , (6, 1)}, also
Pr [C ] = 11/36 and Pr [B] = 25/36.
Pr [A | B] =
Pr [A \ B]
5 36
1
=
·
= .
Pr [B]
36 25
5
GW
Endlicher Wahrscheinlichkeitsraum
Zufallsvariablen
Bedingte Wahrscheinlichkeit
Bedingter Erwartungswert
Markov-Ungleichung
Pr [A | B] =
Treaps
Pr [A \ B]
5 36
1
=
·
= .
Pr [B]
36 25
5
GW
Pr [A] =
k
X
i=1
Pr [A | Bi ] Pr [Bi ],
Beweis:
i=1
Pr [A | Bi ] Pr [Bi ] =
k
X
i=1
Treaps
Endlicher Wahrscheinlichkeitsraum
Zufallsvariablen
Bedingte Wahrscheinlichkeit
Bedingter Erwartungswert
Markov-Ungleichung
Definition
Totale Wahrscheinlichkeit
Definition
Totale Wahrscheinlichkeit
Pr [A \ Bi ] = Pr
GW
Totale Wahrscheinlichkeit - roter und blauer Würfel
k
[
i=1
#
(A \ Bi ) = Pr [A].
Treaps
Endlicher Wahrscheinlichkeitsraum
Zufallsvariablen
Bedingte Wahrscheinlichkeit
Bedingter Erwartungswert
Markov-Ungleichung
Definition
Totale Wahrscheinlichkeit
"
Definition
Totale Wahrscheinlichkeit
Totale Wahrscheinlichkeit - roter und blauer Würfel
Theorem
Wenn B1 , . . . , Bk eine Partition von ⌦ bilden, dann gilt
Pr [A] =
k
X
i=1
Was ist die Wahrscheinlichkeit, einen Pasch zu würfeln, gegeben,
dass wir (mindestens) eine 6 würfeln?
Pr [A | Bi ] Pr [Bi ],
A = “Pasch”, B1 = “keine 6 gewürfelt”, B2 = “mindestens
eine 6 gewürfelt”
für jedes Ereignis A.
Pr [A | B1 ] =
Beweis:
k
X
i=1
Pr [A | Bi ] Pr [Bi ] =
k
X
i=1
Pr [A \ Bi ] = Pr
GW
Treaps
"
k
[
i=1
#
(A \ Bi ) = Pr [A].
1
5,
Pr [B1 ] =
25
36 ,
Pr [B2 ] =
11
36 ,
Pr [A] =
1
6.
Es folgt:
Pr [A | B2 ] =
Was ist die Wahrscheinlichkeit, einen Pasch zu würfeln, gegeben,
dass wir (mindestens) eine 6 würfeln?
A = “Pasch”, B1 = “keine 6 gewürfelt”, B2 = “mindestens
eine 6 gewürfelt”
Pr [A | B1 ] = 15 , Pr [B1 ] =
25
36 ,
Pr [B2 ] =
11
36 ,
Pr [A] = 16 .
Es folgt:
Pr [A]
GW
Pr [A | B1 ] Pr [B1 ]
1
= .
Pr [B2 ]
11
Treaps
Pr [A | B2 ] =
Pr [A]
GW
Pr [A | B1 ] Pr [B1 ]
1
= .
Pr [B2 ]
11
Treaps
Endlicher Wahrscheinlichkeitsraum
Zufallsvariablen
Bedingte Wahrscheinlichkeit
Bedingter Erwartungswert
Markov-Ungleichung
Definition
Totale Wahrscheinlichkeit
Totale Wahrscheinlichkeit - roter und blauer Würfel
Was ist die Wahrscheinlichkeit, einen Pasch zu würfeln, gegeben,
dass wir (mindestens) eine 6 würfeln?
A = “Pasch”, B1 = “keine 6 gewürfelt”, B2 = “mindestens
eine 6 gewürfelt”
Pr [A | B1 ] = 15 , Pr [B1 ] =
25
36 ,
Pr [B2 ] =
11
36 ,
Pr [A] = 16 .
Es folgt:
Pr [A | B2 ] =
Pr [A]
GW
Endlicher Wahrscheinlichkeitsraum
Zufallsvariablen
Bedingte Wahrscheinlichkeit
Bedingter Erwartungswert
Markov-Ungleichung
Pr [A | B1 ] Pr [B1 ]
1
= .
Pr [B2 ]
11
Definition
Was ist die erwartete Augenzahl, gegeben, dass die beiden Würfel
sich um genau 1 unterscheiden?
B=
{(1, 2), (2, 3), (3, 4), (4, 5), (5, 6), (2, 1), (3, 2), (4, 3), (5, 4), (6, 5)}.
Für alle ! 2 B gilt
Pr [!]
1/36
1
PrB [!] = Pr [! | B] =
=
= .
Pr [B]
10/36
10
Treaps
Endlicher Wahrscheinlichkeitsraum
Zufallsvariablen
Bedingte Wahrscheinlichkeit
Bedingter Erwartungswert
Markov-Ungleichung
Definition
Bedingter Erwartungswert
Definition
Bedingter Erwartungswert
Definition
Sei X eine Zufallsvariable und B ein nichtleeres Ereignis. Der
Erwartungswert von X , gegeben B, ist
X
X
E[X | B] :=
X (!) Pr [! | B] =
X (!) PrB [!]
Definition
Sei X eine Zufallsvariable und B ein nichtleeres Ereignis. Der
Erwartungswert von X , gegeben B, ist
X
X
E[X | B] :=
X (!) Pr [! | B] =
X (!) PrB [!]
Bemerkung: E[X | B] ist also der “normale” Erwartungswert von
X |B (Einschränkung von X auf B) über dem bedingten
Wahrscheinlichkeitsraum (B, PrB ).
Bemerkung: E[X | B] ist also der “normale” Erwartungswert von
X |B (Einschränkung von X auf B) über dem bedingten
Wahrscheinlichkeitsraum (B, PrB ).
!2⌦
Treaps
Bedingter Erwartungswert - roter und blauer Würfel
GW
Endlicher Wahrscheinlichkeitsraum
Zufallsvariablen
Bedingte Wahrscheinlichkeit
Bedingter Erwartungswert
Markov-Ungleichung
!2B
GW
Endlicher Wahrscheinlichkeitsraum
Zufallsvariablen
Bedingte Wahrscheinlichkeit
Bedingter Erwartungswert
Markov-Ungleichung
!2B
Treaps
GW
Endlicher Wahrscheinlichkeitsraum
Zufallsvariablen
Bedingte Wahrscheinlichkeit
Bedingter Erwartungswert
Markov-Ungleichung
Definition
Bedingter Erwartungswert - roter und blauer Würfel
Was ist die erwartete Augenzahl, gegeben, dass die beiden Würfel
sich um genau 1 unterscheiden?
B=
{(1, 2), (2, 3), (3, 4), (4, 5), (5, 6), (2, 1), (3, 2), (4, 3), (5, 4), (6, 5)}.
Für alle ! 2 B gilt
Pr [!]
1/36
1
PrB [!] = Pr [! | B] =
=
= .
Pr [B]
10/36
10
GW
!2⌦
Treaps
Treaps
Definition
Bedingter Erwartungswert - roter und blauer Würfel
Was ist die erwartete Augenzahl, gegeben, dass die beiden Würfel
sich um genau 1 unterscheiden?
Also
E[X | B] =
5
X
5
(2i + 1)
i=1
X
1
1
+
(2j + 1) = 7.
10
10
j=1
GW
Treaps
Endlicher Wahrscheinlichkeitsraum
Zufallsvariablen
Bedingte Wahrscheinlichkeit
Bedingter Erwartungswert
Markov-Ungleichung
Endlicher Wahrscheinlichkeitsraum
Zufallsvariablen
Bedingte Wahrscheinlichkeit
Bedingter Erwartungswert
Markov-Ungleichung
Definition
Bedingter Erwartungswert - roter und blauer Würfel
Was ist die erwartete Augenzahl, gegeben, dass die beiden Würfel
sich um genau 1 unterscheiden?
Also
E[X | B] =
5
X
5
(2i + 1)
i=1
X
1
1
+
(2j + 1) = 7.
10
10
Bedingter Erwartungswert - roter und blauer Würfel
Was ist die erwartete Augenzahl, gegeben, dass die beiden Würfel
sich um genau 1 unterscheiden?
Definition
Wenn B1 , . . . , Bk eine Partition von ⌦ bilden, dann gilt für jede
Zufallsvariable X :
E[X ] =
E[X | B] =
5
X
(2i + 1)
i=1
1
+
10
5
X
(2j + 1)
1
= 7.
10
Interpretation: Selbst wenn Ihr Kollege, der verdeckt wüfelt,
Ihnen stets die Di↵erenz der beiden Würfel nennt, können Sie
langfristig keine bessere Vorhersage machen als 7.
Beweis:
k
X
i=1
=
X
E[X | Bi ] Pr [Bi ] =
X (!)
Endlicher Wahrscheinlichkeitsraum
Zufallsvariablen
Bedingte Wahrscheinlichkeit
Bedingter Erwartungswert
Markov-Ungleichung
Treaps
GW
Endlicher Wahrscheinlichkeitsraum
Zufallsvariablen
Bedingte Wahrscheinlichkeit
Bedingter Erwartungswert
Markov-Ungleichung
Definition
Totaler Erwartungswert
Definition
Wenn B1 , . . . , Bk eine Partition von ⌦ bilden, dann gilt für jede
Zufallsvariable X :
E[X ] =
k
X
i=1
Beweis:
k
X
i=1
=
X
!2⌦
E[X | Bi ] Pr [Bi ] =
X (!)
k
X
i=1
i=1
X
!2⌦
X (!) Pr [! | Bi ]
Pr [! | Bi ] Pr [Bi ] =
GW
Treaps
X
!2⌦
Pr [Bi ]
X (!) Pr [!] = E[X ].
k
X
i=1
GW
Endlicher Wahrscheinlichkeitsraum
Zufallsvariablen
Bedingte Wahrscheinlichkeit
Bedingter Erwartungswert
Markov-Ungleichung
Definition
X
!2⌦
X (!) Pr [! | Bi ]
X
Pr [! | Bi ] Pr [Bi ] =
Treaps
!
Pr [Bi ]
X (!) Pr [!] = E[X ].
!2⌦
Treaps
Definition
Totaler Erwartungswert - roter und blauer Würfel
Sei X (i, j) = ij das Produkt der beiden Augenzahlen, Bi das
Ereignis “roter Würfel zeigt i”.
Sei X (i, j) = ij das Produkt der beiden Augenzahlen, Bi das
Ereignis “roter Würfel zeigt i”.
1
Pr [Bi ] = .
6
Bi = {(i, j) : 1  j  6};
!
E[X | Bi ] Pr [Bi ].
Totaler Erwartungswert - roter und blauer Würfel
E[X | Bi ] Pr [Bi ].
k
X
k
X
i=1
!2⌦
GW
k
X
i=1
j=1
Definition
Totaler Erwartungswert
Also
j=1
Es kommt auch 7 heraus, gegeben, dass die beiden Würfel
sich um eine feste Zahl unterscheiden.
Endlicher Wahrscheinlichkeitsraum
Zufallsvariablen
Bedingte Wahrscheinlichkeit
Bedingter Erwartungswert
Markov-Ungleichung
Definition
E[X | Bi ] =
E[X ] =
P6
P6
i=1
j=1 ij
Pr [(i, j) | Bi ] =
|
{z
}
1/6
E[X | Bi ] Pr [Bi ] =
GW
P6
Treaps
21i
6 .
21i 1
i=1 6 6
E[X | Bi ] =
=
21·21
36
1
Pr [Bi ] = .
6
Bi = {(i, j) : 1  j  6};
=
49
4 .
E[X ] =
P6
P6
i=1
j=1 ij
Pr [(i, j) | Bi ] =
|
{z
}
1/6
E[X | Bi ] Pr [Bi ] =
GW
P6
Treaps
21i
6 .
21i 1
i=1 6 6
=
21·21
36
=
49
4 .
Endlicher Wahrscheinlichkeitsraum
Zufallsvariablen
Bedingte Wahrscheinlichkeit
Bedingter Erwartungswert
Markov-Ungleichung
Endlicher Wahrscheinlichkeitsraum
Zufallsvariablen
Bedingte Wahrscheinlichkeit
Bedingter Erwartungswert
Markov-Ungleichung
Satz
Markov-Ungleichung
Markov-Ungleichung
Definition
Sei X eine nichtnegative Zufallsvariable (d.h. X (!)
! 2 ⌦). Dann gilt
1
Pr [X > t E[X ]] < ,
t
t
0 für alle
1
Pr [X > t E[X ]] < ,
t
Nach dem
E[X | B1 ] Pr [B1 ] + E[X | B2 ] Pr [B2 ]
E[X ] =
Umformen: Pr [X > t E[X ]] < 1t .
GW
Endlicher Wahrscheinlichkeitsraum
Zufallsvariablen
Bedingte Wahrscheinlichkeit
Bedingter Erwartungswert
Markov-Ungleichung
1
Pr [X > t E[X ]] < ,
t
1.
Nach dem
GW
Endlicher Wahrscheinlichkeitsraum
Zufallsvariablen
Bedingte Wahrscheinlichkeit
Bedingter Erwartungswert
Markov-Ungleichung
Satz
t
E[X ] =
1.
E[X | B1 ] Pr [B1 ] + E[X | B2 ] Pr [B2 ]
E[X | B1 ] Pr [B1 ] + E[X | B2 ] Pr [B2 ]
Umformen: Pr [X > t E[X ]] < 1t .
GW
Endlicher Wahrscheinlichkeitsraum
Zufallsvariablen
Bedingte Wahrscheinlichkeit
Bedingter Erwartungswert
Markov-Ungleichung
Satz
Treaps
Satz
Markov-Ungleichung - roter und blauer Würfel
Nach dem
> t E[X ] Pr [B1 ] + 0 = t E[X ] Pr [X > t E[X ]].
Die Wahrscheinlichkeit, 10 oder mehr Augen zu würfeln, beträgt
für alle " > 0 höchstens

10 "
7
Pr X >
·7 <
.
7
10 "
Also
7
.
10
Das ist nicht die bestmögliche Schranke; die Markov-Ungleichung
ist meistens nicht “scharf”.
Pr [X
10] 
Die Wahrscheinlichkeit, 10 oder mehr Augen zu würfeln, beträgt
für alle " > 0 höchstens

10 "
7
Pr X >
·7 <
.
7
10 "
Also
7
.
10
Das ist nicht die bestmögliche Schranke; die Markov-Ungleichung
ist meistens nicht “scharf”.
Pr [X
10] 
Umformen: Pr [X > t E[X ]] < 1t .
Treaps
Nach dem
0 für alle
Beweis: B1 = {X > t E[X ]} und B2 = {X  t E[X ]}.
Satz vom totalem Erwartungswert gilt
GW
1.
> t E[X ] Pr [B1 ] + 0 = t E[X ] Pr [X > t E[X ]].
Treaps
Markov-Ungleichung - roter und blauer Würfel
1
Pr [X > t E[X ]] < ,
t
t
0 für alle
Beweis: B1 = {X > t E[X ]} und B2 = {X  t E[X ]}.
Satz vom totalem Erwartungswert gilt
E[X | B1 ] Pr [B1 ] + E[X | B2 ] Pr [B2 ]
Umformen: Pr [X > t E[X ]] < 1t .
Definition
Sei X eine nichtnegative Zufallsvariable (d.h. X (!)
! 2 ⌦). Dann gilt
Definition
Sei X eine nichtnegative Zufallsvariable (d.h. X (!)
! 2 ⌦). Dann gilt
> t E[X ] Pr [B1 ] + 0 = t E[X ] Pr [X > t E[X ]].
Treaps
Markov-Ungleichung
E[X ] =
t
0 für alle
Beweis: B1 = {X > t E[X ]} und B2 = {X  t E[X ]}.
Satz vom totalem Erwartungswert gilt
> t E[X ] Pr [B1 ] + 0 = t E[X ] Pr [X > t E[X ]].
Satz
Markov-Ungleichung
Definition
Sei X eine nichtnegative Zufallsvariable (d.h. X (!)
! 2 ⌦). Dann gilt
1.
Beweis: B1 = {X > t E[X ]} und B2 = {X  t E[X ]}.
Satz vom totalem Erwartungswert gilt
E[X ] =
Endlicher Wahrscheinlichkeitsraum
Zufallsvariablen
Bedingte Wahrscheinlichkeit
Bedingter Erwartungswert
Markov-Ungleichung
Satz
GW
Treaps
GW
Treaps
Endlicher Wahrscheinlichkeitsraum
Zufallsvariablen
Bedingte Wahrscheinlichkeit
Bedingter Erwartungswert
Markov-Ungleichung
Zufällige Suchbäume
Zurück zu Treaps
Satz
Markov-Ungleichung - roter und blauer Würfel
Die Wahrscheinlichkeit, 10 oder mehr Augen zu würfeln, beträgt
für alle " > 0 höchstens

10 "
7
Pr X >
·7 <
.
7
10 "
Gute und schlechte Bäume
Konstruktion
Wahrscheinlichkeitsraum
Erwartete Tiefe des kleinsten Schlüssels
Erwartete Höhe eines zufälligen Suchbaums
Zur Erinnerung...
Zufällige Suchbäume
Zurück zu Treaps
Konstruktion eines zufälligen Suchbaums BS mit
Schlüsselmenge S
Binäre Suchbäume können gut (kleine Höhe) oder schlecht (grosse
Höhe) sein.
Definition
BS
8
leer,
>
>
>
>
>
>
<
=
Also
7
Pr [X 10]  .
10
Das ist nicht die bestmögliche Schranke; die Markov-Ungleichung
ist meistens nicht “scharf”.
GW
Zufällige Suchbäume
Zurück zu Treaps
Treaps
S <x
Konstruktion eines zufälligen Suchbaums BS mit
Schlüsselmenge S
=
BS <x
BS >x
x 2 S zufällig, sonst.
:= {s 2 S : s < x}
Zufällige Suchbäume
Zurück zu Treaps
Treaps
GW
Gute und schlechte Bäume
Konstruktion
Wahrscheinlichkeitsraum
Erwartete Tiefe des kleinsten Schlüssels
Erwartete Höhe eines zufälligen Suchbaums
Wahrscheinlichkeitsraum der BS
Zufällige Suchbäume
Zurück zu Treaps
Treaps
Gute und schlechte Bäume
Konstruktion
Wahrscheinlichkeitsraum
Erwartete Tiefe des kleinsten Schlüssels
Erwartete Höhe eines zufälligen Suchbaums
Wahrscheinlichkeitsraum der BS
Für festes S bilden die möglichen Bäume BS einen
Wahrscheinlichkeitsraum ⌦.
Definition
BS
>
>
>
>
>
>
:
falls S = ;, und
x
S >x := {s 2 S : s > x}
GW
Gute und schlechte Bäume
Konstruktion
Wahrscheinlichkeitsraum
Erwartete Tiefe des kleinsten Schlüssels
Erwartete Höhe eines zufälligen Suchbaums
Gute und schlechte Bäume
Konstruktion
Wahrscheinlichkeitsraum
Erwartete Tiefe des kleinsten Schlüssels
Erwartete Höhe eines zufälligen Suchbaums
8
leer,
>
>
>
>
>
>
<
>
>
>
>
>
>
:
BS <x
falls S = ;, und
x
BS >x
Beispiel: S = {1, 2, 3}.
Für festes S bilden die möglichen Bäume BS einen
Wahrscheinlichkeitsraum ⌦.
5 mögliche Bäume mit ihren Wahrscheinlichkeiten
1
6
x 2 S zufällig, sonst.
1
6
1
3
1
6
1
6
1/3: Schlüssel in der Wurzel ist 2.
1/6 (links): Schlüssel in der Wurzel ist 1, Schlüssel im rechten
Kind ist 2.
S <x := {s 2 S : s < x}
S >x := {s 2 S : s > x}
GW
Treaps
GW
Treaps
GW
Treaps
Zufällige Suchbäume
Zurück zu Treaps
Gute und schlechte Bäume
Konstruktion
Wahrscheinlichkeitsraum
Erwartete Tiefe des kleinsten Schlüssels
Erwartete Höhe eines zufälligen Suchbaums
Zufällige Suchbäume
Zurück zu Treaps
Wahrscheinlichkeitsraum der BS
Gute und schlechte Bäume
Konstruktion
Wahrscheinlichkeitsraum
Erwartete Tiefe des kleinsten Schlüssels
Erwartete Höhe eines zufälligen Suchbaums
Zufällige Suchbäume
Zurück zu Treaps
Wahrscheinlichkeitsraum der BS
Rang eines Elements
Für festes S bilden die möglichen Bäume BS einen
Wahrscheinlichkeitsraum ⌦.
Für festes S bilden die möglichen Bäume BS einen
Wahrscheinlichkeitsraum ⌦.
Beispiel: S = {1, 2, 3}.
Beispiel: S = {1, 2, 3}.
5 mögliche Bäume mit ihren Wahrscheinlichkeiten
Gute und schlechte Bäume
Konstruktion
Wahrscheinlichkeitsraum
Erwartete Tiefe des kleinsten Schlüssels
Erwartete Höhe eines zufälligen Suchbaums
Definition
Für S ✓ R ist der Rang von x 2 S definiert als
5 mögliche Bäume mit ihren Wahrscheinlichkeiten
rg(x) = rgS (x) := 1 + |{y 2 S : y < x}| .
1
6
1
6
1
3
1
6
1
6
1
6
1
6
1
3
1
6
1
6
1/3: Schlüssel in der Wurzel ist 2.
1/3: Schlüssel in der Wurzel ist 2.
1/6 (links): Schlüssel in der Wurzel ist 1, Schlüssel im rechten
Kind ist 2.
1/6 (links): Schlüssel in der Wurzel ist 1, Schlüssel im rechten
Kind ist 2.
GW
Zufällige Suchbäume
Zurück zu Treaps
Treaps
Gute und schlechte Bäume
Konstruktion
Wahrscheinlichkeitsraum
Erwartete Tiefe des kleinsten Schlüssels
Erwartete Höhe eines zufälligen Suchbaums
Rang eines Elements
GW
Zufällige Suchbäume
Zurück zu Treaps
Das heisst, das kleinste Element von S hat Rang 1.
Für einen Baumknoten v ist rg(v ) der Rang seines Schlüssels.
Treaps
GW
Gute und schlechte Bäume
Konstruktion
Wahrscheinlichkeitsraum
Erwartete Tiefe des kleinsten Schlüssels
Erwartete Höhe eines zufälligen Suchbaums
Rang eines Elements
Zufällige Suchbäume
Zurück zu Treaps
rg(x) = rgS (x) := 1 + |{y 2 S : y < x}| .
Gute und schlechte Bäume
Konstruktion
Wahrscheinlichkeitsraum
Erwartete Tiefe des kleinsten Schlüssels
Erwartete Höhe eines zufälligen Suchbaums
Tiefe eines Schlüssels in BS
BS
Definition
Für S ✓ R ist der Rang von x 2 S definiert als
Treaps
Definition
Für S ✓ R ist der Rang von x 2 S definiert als
rg(x) = rgS (x) := 1 + |{y 2 S : y < x}| .
Das heisst, das kleinste Element von S hat Rang 1.
Das heisst, das kleinste Element von S hat Rang 1.
Für einen Baumknoten v ist rg(v ) der Rang seines Schlüssels.
Für einen Baumknoten v ist rg(v ) der Rang seines Schlüssels.
=
8
leer,
>
>
>
<
>
>
>
:
BS <x
falls S = ;, und
x
BS >x
x 2 S zufällig, sonst.
Definition
Die Zahl dBS (y ) definiert durch
8
falls y = x,
< 0,
1 + dBS <x (y ), falls y < x, und
dBS (y ) :=
:
1 + dBS >x (y ), sonst.
heisst Tiefe von y bzgl. BS .
GW
Treaps
GW
Treaps
GW
Treaps
Zufällige Suchbäume
Zurück zu Treaps
Gute und schlechte Bäume
Konstruktion
Wahrscheinlichkeitsraum
Erwartete Tiefe des kleinsten Schlüssels
Erwartete Höhe eines zufälligen Suchbaums
Zufallsvariable für die Tiefe des Schlüssels vom Rang i
Definition
Zufällige Suchbäume
Zurück zu Treaps
Gute und schlechte Bäume
Konstruktion
Wahrscheinlichkeitsraum
Erwartete Tiefe des kleinsten Schlüssels
Erwartete Höhe eines zufälligen Suchbaums
Zufällige Suchbäume
Zurück zu Treaps
Zufallsvariable für die Tiefe des Schlüssels vom Rang i
Definition
(i)
Seien i, n 2 N, i  n. Dn ist die Zufallsvariable für die Tiefe des
Schlüssels vom Rang i in BS .
(1)
Gute und schlechte Bäume
Konstruktion
Wahrscheinlichkeitsraum
Erwartete Tiefe des kleinsten Schlüssels
Erwartete Höhe eines zufälligen Suchbaums
Zufallsvariable für die Tiefe des Schlüssels vom Rang i
Definition
(i)
Seien i, n 2 N, i  n. Dn ist die Zufallsvariable für die Tiefe des
Schlüssels vom Rang i in BS .
(1)
(i)
Seien i, n 2 N, i  n. Dn ist die Zufallsvariable für die Tiefe des
Schlüssels vom Rang i in BS .
(1)
Dn := Dn ist die Zufallsvariable für die Tiefe des kleinsten
Schlüssels in BS .
Dn := Dn ist die Zufallsvariable für die Tiefe des kleinsten
Schlüssels in BS .
Dn := Dn ist die Zufallsvariable für die Tiefe des kleinsten
Schlüssels in BS .
Ziel: Berechne E[Dn ], die erwartete Tiefe des kleinsten Schlüssels!
Ziel: Berechne E[Dn ], die erwartete Tiefe des kleinsten Schlüssels!
Ziel: Berechne E[Dn ], die erwartete Tiefe des kleinsten Schlüssels!
GW
Zufällige Suchbäume
Zurück zu Treaps
Treaps
GW
Gute und schlechte Bäume
Konstruktion
Wahrscheinlichkeitsraum
Erwartete Tiefe des kleinsten Schlüssels
Erwartete Höhe eines zufälligen Suchbaums
Kleine Fälle
Zufällige Suchbäume
Zurück zu Treaps
Treaps
GW
Gute und schlechte Bäume
Konstruktion
Wahrscheinlichkeitsraum
Erwartete Tiefe des kleinsten Schlüssels
Erwartete Höhe eines zufälligen Suchbaums
Zufällige Suchbäume
Zurück zu Treaps
Kleine Fälle
Treaps
Gute und schlechte Bäume
Konstruktion
Wahrscheinlichkeitsraum
Erwartete Tiefe des kleinsten Schlüssels
Erwartete Höhe eines zufälligen Suchbaums
Die Rekursionsgleichung
Ereignis Bi : Rang der Wurzel ist i.
Nach totalem Erwartungswert gilt:
E[D1 ] = 0.
E[D2 ] =
E[D1 ] = 0.
E[D2 ] =
E[D3 ] =
1
2
1
6
·1+
·0+
1
2
1
6
· 0 = 12 .
·0+
1
3
·1+
E[D3 ] =
1
6
·1+
1
6
1
2
1
6
·1+
·0+
1
2
1
6
· 0 = 12 .
·0+
1
3
·1+
1
6
·1+
1
6
E[Dn ] =
· 2 = 56 .
i=1
· 2 = 56 .
E[Dn | Bi ] =
1
6
GW
Treaps
1
6
1
3
GW
Treaps
1
6
n
X
1
6
⇢
E[Dn | Bi ] · Pr [Bi ] .
| {z
} | {z }
0,
1 + E[Di
=1/n
falls i = 1, und
,
1 ], sonst.
Beweis: die erwartete Tiefe des kleinsten Schlüssels, gegeben, dass
die Wurzel x von BS Rang i > 1 hat, ist 1 plus die erwartete Tiefe
des kleinsten Schlüssels in BS <x , einem zufälligen Suchbaum mit
i 1 Schlüsseln.
GW
Treaps
Zufällige Suchbäume
Zurück zu Treaps
Gute und schlechte Bäume
Konstruktion
Wahrscheinlichkeitsraum
Erwartete Tiefe des kleinsten Schlüssels
Erwartete Höhe eines zufälligen Suchbaums
Zufällige Suchbäume
Zurück zu Treaps
Die Rekursionsgleichung
Ereignis Bi : Rang der Wurzel ist i.
Nach totalem Erwartungswert gilt:
n
X
i=1
E[Dn | Bi ] =
E[Dn | Bi ] · Pr [Bi ] .
| {z
} | {z }
0,
1 + E[Di
E[Dn ] =
1 ],
falls i = 1, und
,
sonst.
E[Dn | Bi ] =
Beweis: die erwartete Tiefe des kleinsten Schlüssels, gegeben, dass
die Wurzel x von BS Rang i > 1 hat, ist 1 plus die erwartete Tiefe
des kleinsten Schlüssels in BS <x , einem zufälligen Suchbaum mit
i 1 Schlüsseln.
GW
Zufällige Suchbäume
Zurück zu Treaps
n
X
i=1
=1/n
⇢
1 ],
falls i = 1, und
,
sonst.
Gute und schlechte Bäume
Konstruktion
Wahrscheinlichkeitsraum
Erwartete Tiefe des kleinsten Schlüssels
Erwartete Höhe eines zufälligen Suchbaums
Zufällige Suchbäume
Zurück zu Treaps
Für n 2 N, n
1)dn
1
= (n
1) + d1 + d2 + . . . + dn
2
2) + d1 + d2 + . . . + dn
2
GW
Treaps
+ dn
1,
Für n 2 N, n
(n
1)dn
1
= (n
= (n
1) + d1 + d2 + . . . + dn
2
2) + d1 + d2 + . . . + dn
2
+ dn
1,
und
Treaps
Gute und schlechte Bäume
Konstruktion
Wahrscheinlichkeitsraum
Erwartete Tiefe des kleinsten Schlüssels
Erwartete Höhe eines zufälligen Suchbaums
3 gilt
ndn = (n
(n
3 gilt
ndn = (n
1
Zufällige Suchbäume
Zurück zu Treaps
hergeleitet. Um diese zu lösen, benutzen wir nun einen typischen
Trick.
und
1)dn
Berechnung von E[Dn ]
Für n 2 N, n
3 gilt
(n
Gute und schlechte Bäume
Konstruktion
Wahrscheinlichkeitsraum
Erwartete Tiefe des kleinsten Schlüssels
Erwartete Höhe eines zufälligen Suchbaums
Berechnung von E[Dn ]
hergeleitet. Um diese zu lösen, benutzen wir nun einen typischen
Trick.
3 gilt
ndn = (n
GW
Sei dn := E[Dn ]. Wir haben die Rekursionsgleichung
⇢
0,P
falls n = 1, und
dn =
n
1
i=2 (1 + di 1 ), sonst.
n
(n
Für n 2 N, n
Treaps
Sei dn := E[Dn ]. Wir haben die Rekursionsgleichung
⇢
0,P
falls n = 1, und
dn =
n
1
i=2 (1 + di 1 ), sonst.
n
ndn = (n
hergeleitet. Um diese zu lösen, benutzen wir nun einen typischen
Trick.
=1/n
Beweis: die erwartete Tiefe des kleinsten Schlüssels, gegeben, dass
die Wurzel x von BS Rang i > 1 hat, ist 1 plus die erwartete Tiefe
des kleinsten Schlüssels in BS <x , einem zufälligen Suchbaum mit
i 1 Schlüsseln.
GW
Berechnung von E[Dn ]
Sei dn := E[Dn ]. Wir haben die Rekursionsgleichung
⇢
0,P
falls n = 1, und
dn =
n
1
i=2 (1 + di 1 ), sonst.
n
E[Dn | Bi ] · Pr [Bi ] .
| {z
} | {z }
0,
1 + E[Di
Treaps
Gute und schlechte Bäume
Konstruktion
Wahrscheinlichkeitsraum
Erwartete Tiefe des kleinsten Schlüssels
Erwartete Höhe eines zufälligen Suchbaums
Berechnung von E[Dn ]
Nach totalem Erwartungswert gilt:
⇢
Zufällige Suchbäume
Zurück zu Treaps
Die Rekursionsgleichung
Ereignis Bi : Rang der Wurzel ist i.
E[Dn ] =
Gute und schlechte Bäume
Konstruktion
Wahrscheinlichkeitsraum
Erwartete Tiefe des kleinsten Schlüssels
Erwartete Höhe eines zufälligen Suchbaums
1)dn
1
= (n
1) + d1 + d2 + . . . + dn
2
2) + d1 + d2 + . . . + dn
2
Subtraktion:
ndn
1) + d1 + d2 + . . . + dn
2
2) + d1 + d2 + . . . + dn
2
GW
Treaps
+ dn
1,
und
+ dn
(n
1)dn
, ndn = 1 + ndn
1
, dn = + dn 1
n
GW
1
= 1 + dn
1
für n
Treaps
3.
1
1,
und
Zufällige Suchbäume
Zurück zu Treaps
Gute und schlechte Bäume
Konstruktion
Wahrscheinlichkeitsraum
Erwartete Tiefe des kleinsten Schlüssels
Erwartete Höhe eines zufälligen Suchbaums
Berechnung von E[Dn ]
Für n 2 N, n
(n
1)dn
1
Berechnung von E[Dn ]
3 gilt
Wir haben: dn =
ndn = (n
= (n
1) + d1 + d2 + . . . + dn
2
2) + d1 + d2 + . . . + dn
2
+ dn
1,
und
(n
1)dn
, ndn = 1 + ndn
1
, dn = + dn 1
n
GW
Zufällige Suchbäume
Zurück zu Treaps
1
= 1 + dn
1
n
+ dn
=
1
1
für n
1
2
3.
für n
3.
1
1
1
+ dn 1 = +
+ dn 2 = · · ·
n
n n 1
1
1
1
+
+ . . . + + d2 = Hn 1,
n n 1
3 |{z}
wobei Hn :=
Pn
1
i=1 i
die n-te Harmonische Zahl ist.
Treaps
Gute und schlechte Bäume
Konstruktion
Wahrscheinlichkeitsraum
Erwartete Tiefe des kleinsten Schlüssels
Erwartete Höhe eines zufälligen Suchbaums
Berechnung von E[Dn ]
GW
Zufällige Suchbäume
Zurück zu Treaps
Theorem
Die erwartete Tiefe des kleinsten Schlüssels in einem zufälligen
Suchbaum über n Schlüsseln beträgt
1  ln n.
Achtung: Das heisst aber noch lange nicht, dass jeder Schlüssel
erwartetete logarithmische Tiefe hat, und erst recht nicht, dass die
erwartete Höhe (das Maximum aller Tiefen) im Erwartungswert
logarithmisch in n ist.
GW
Treaps
+ dn
1
für n
Zusammen mit d1 = 0 und d2 =
3.
1
2
bekommen wir
1
1
1
+ dn 1 = +
+ dn 2 = · · ·
n
n n 1
1
1
1
+
+ . . . + + d2 = Hn 1,
n n 1
3 |{z}
dn =
=
1/2
wobei Hn :=
Pn
1
i=1 i
Treaps
die n-te Harmonische Zahl ist.
GW
Gute und schlechte Bäume
Konstruktion
Wahrscheinlichkeitsraum
Erwartete Tiefe des kleinsten Schlüssels
Erwartete Höhe eines zufälligen Suchbaums
Berechnung von E[Dn ]
Hn
1
n
Wir haben: dn =
bekommen wir
1/2
1
Gute und schlechte Bäume
Konstruktion
Wahrscheinlichkeitsraum
Erwartete Tiefe des kleinsten Schlüssels
Erwartete Höhe eines zufälligen Suchbaums
Zufällige Suchbäume
Zurück zu Treaps
Berechnung von E[Dn ]
Zusammen mit d1 = 0 und d2 =
dn =
Subtraktion:
ndn
Gute und schlechte Bäume
Konstruktion
Wahrscheinlichkeitsraum
Erwartete Tiefe des kleinsten Schlüssels
Erwartete Höhe eines zufälligen Suchbaums
Zufällige Suchbäume
Zurück zu Treaps
Treaps
Gute und schlechte Bäume
Konstruktion
Wahrscheinlichkeitsraum
Erwartete Tiefe des kleinsten Schlüssels
Erwartete Höhe eines zufälligen Suchbaums
Zufällige Suchbäume
Zurück zu Treaps
Zufallsvariable für die Höhe
Theorem
Die erwartete Tiefe des kleinsten Schlüssels in einem zufälligen
Suchbaum über n Schlüsseln beträgt
1  ln n.
Hn
Achtung: Das heisst aber noch lange nicht, dass jeder Schlüssel
erwartetete logarithmische Tiefe hat, und erst recht nicht, dass die
erwartete Höhe (das Maximum aller Tiefen) im Erwartungswert
logarithmisch in n ist.
GW
Treaps
Seien i, n 2 N, i  n.
n
(i)
Xn := max Dn
i=1
ist die Zufallsvariable für die Höhe von BS .
E[Xn ] scheint aufgrund des Maximums schwierig zu sein.
Es gilt nicht
E[max(X1 , X2 )] = max( E[X1 ], E[X2 ]).
Im Gegenteil, das ist im allgemeinen völlig falsch.
GW
Treaps
Gute und schlechte Bäume
Konstruktion
Wahrscheinlichkeitsraum
Erwartete Tiefe des kleinsten Schlüssels
Erwartete Höhe eines zufälligen Suchbaums
Zufällige Suchbäume
Zurück zu Treaps
Zufallsvariable für die Höhe
Seien i, n 2 N, i  n.
Gute und schlechte Bäume
Konstruktion
Wahrscheinlichkeitsraum
Erwartete Tiefe des kleinsten Schlüssels
Erwartete Höhe eines zufälligen Suchbaums
Zufällige Suchbäume
Zurück zu Treaps
Zufallsvariable für die Höhe
n
Seien i, n 2 N, i  n.
(i)
Xn := max Dn
i=1
n
h i
E[Xn ] = log 2 E[Xn ]  log E 2Xn
(i)
Xn := max Dn
2
h
i
(i)
n
= log E 2maxi=1 Dn  log E4
ist die Zufallsvariable für die Höhe von BS .
E[Xn ] scheint aufgrund des Maximums schwierig zu sein.
E[Xn ] scheint aufgrund des Maximums schwierig zu sein.
Es gilt nicht
Es gilt nicht
E[max(X1 , X2 )] = max( E[X1 ], E[X2 ]).
Treaps
GW
Gute und schlechte Bäume
Konstruktion
Wahrscheinlichkeitsraum
Erwartete Tiefe des kleinsten Schlüssels
Erwartete Höhe eines zufälligen Suchbaums
Zufällige Suchbäume
Zurück zu Treaps
Zufällige Suchbäume
Zurück zu Treaps
Noch ein Trick...
n
(i)
(i)
n
2maxi=1 Dn = max 2Dn =
h
= log E 2
(i)
maxni=1 Dn
i
2
 log E4
n
X
(i)
Dn
2
i=1, i ist Blatt
3
5.
Definiere
(i)
n
(i)
2maxi=1 Dn = max 2Dn =
i=1
n
GW
2
h
i
(i)
n
= log E 2maxi=1 Dn  log E4
n
X
n
X
i=1, i ist Blatt
(i)
3
2Dn 5.
(i)
2Dn .
i=1, i ist Blatt
max
i=1, i ist Blatt
Treaps
(i)
2Dn 
n
X
i=1, i ist Blatt
(i)
2D n .
3
Zufällige Suchbäume
Zurück zu Treaps
2Dn 
n
X
(i)
2D n .
i=1, i ist Blatt
Treaps
Gute und schlechte Bäume
Konstruktion
Wahrscheinlichkeitsraum
Erwartete Tiefe des kleinsten Schlüssels
Erwartete Höhe eines zufälligen Suchbaums
Noch ein Trick...
Zn :=
Zweites :
i=1, i ist Blatt
(i)
n
max
i=1, i ist Blatt
GW
Gute und schlechte Bäume
Konstruktion
Wahrscheinlichkeitsraum
Erwartete Tiefe des kleinsten Schlüssels
Erwartete Höhe eines zufälligen Suchbaums
h i
E[Xn ] = log 2 E[Xn ]  log E 2Xn
Erstes : Jensens Ungleichung
n
Treaps
Noch ein Trick...
h i
E[Xn ] = log 2 E[Xn ]  log E 2Xn
(i)
2Dn 5.
Zweites :
Im Gegenteil, das ist im allgemeinen völlig falsch.
i=1
GW
n
X
Erstes : Jensens Ungleichung
E[max(X1 , X2 )] = max( E[X1 ], E[X2 ]).
Im Gegenteil, das ist im allgemeinen völlig falsch.
Gute und schlechte Bäume
Konstruktion
Wahrscheinlichkeitsraum
Erwartete Tiefe des kleinsten Schlüssels
Erwartete Höhe eines zufälligen Suchbaums
Noch ein Trick...
i=1
ist die Zufallsvariable für die Höhe von BS .
Zufällige Suchbäume
Zurück zu Treaps
die Summe der “exponentiellen Tiefen” aller Blätter.
Z0 = 0, Z1 = 1 (ein Blatt, mit exponentieller Tiefe 20 = 1)
Z2 = 2 (ein Blatt, mit exponentieller Tiefe 21 = 2)
E[Z3 ] = 4.
GW
Treaps
h i
E[Xn ] = log 2 E[Xn ]  log E 2Xn
Definiere
2
h
i
(i)
n
= log E 2maxi=1 Dn  log E4
n
X
Zn :=
n
X
i=1, i ist Blatt
(i)
3
2Dn 5.
(i)
2Dn .
i=1, i ist Blatt
die Summe der “exponentiellen Tiefen” aller Blätter.
Z0 = 0, Z1 = 1 (ein Blatt, mit exponentieller Tiefe 20 = 1)
Z2 = 2 (ein Blatt, mit exponentieller Tiefe 21 = 2)
E[Z3 ] = 4.
GW
Treaps
Zufällige Suchbäume
Zurück zu Treaps
Gute und schlechte Bäume
Konstruktion
Wahrscheinlichkeitsraum
Erwartete Tiefe des kleinsten Schlüssels
Erwartete Höhe eines zufälligen Suchbaums
Noch ein Trick...
2
h
i
(i)
n
= log E 2maxi=1 Dn  log E4
n
X
Zn :=
(i)
Dn
2
n
X
i=1, i ist Blatt
(i)
3
2Dn 5.
h i
E[Xn ] = log 2 E[Xn ]  log E 2Xn
Definiere
GW
Zufällige Suchbäume
Zurück zu Treaps
2
h
i
(i)
n
= log E 2maxi=1 Dn  log E4
n
X
Zn :=
.
(i)
Dn
2
n
X
i=1, i ist Blatt
(i)
3
2Dn 5.
Treaps
GW
Zufällige Suchbäume
Zurück zu Treaps
2( E[Zi
1 ]+ E[Zn i ])
=1/n
Beweis: Gegeben, dass die Wurzel x Rang i hat, sind BS <x und
BS >x zufällige Suchbäume mit jeweils i 1 und n i Schlüsseln,
deren Blätter zusammen genau die Blätter von BS enthalten. Die
exponentielle Tiefe jedes Blattes ist in BS doppelt so gross wie im
entsprechenden Teilbaum.
GW
Treaps
E[Zn ] =
n
X
i=1
2
(i)
i=1, i ist Blatt
3
2Dn 5.
.
die Summe der “exponentiellen Tiefen” aller Blätter.
Z0 = 0, Z1 = 1 (ein Blatt, mit exponentieller Tiefe 20 = 1)
Z2 = 2 (ein Blatt, mit exponentieller Tiefe 21 = 2)
E[Z3 ] = 4.
Treaps
GW
Gute und schlechte Bäume
Konstruktion
Wahrscheinlichkeitsraum
Erwartete Tiefe des kleinsten Schlüssels
Erwartete Höhe eines zufälligen Suchbaums
Zufällige Suchbäume
Zurück zu Treaps
Treaps
Gute und schlechte Bäume
Konstruktion
Wahrscheinlichkeitsraum
Erwartete Tiefe des kleinsten Schlüssels
Erwartete Höhe eines zufälligen Suchbaums
Berechnung von E[Zn ]
E[Z | rg(Wurzel) = i] · Pr [rg(Wurzel) = i] .
| n
{z
} |
{z
}
2( E[Zi
(i)
Dn
n
X
i=1, i ist Blatt
Lemma
Für n 2,
E[Z | rg(Wurzel) = i] · Pr [rg(Wurzel) = i] .
| n
{z
} |
{z
}
n
X
Zn :=
Die Rekursionsgleichung
Lemma
Für n 2,
i=1
Definiere
2
h
i
(i)
n
= log E 2maxi=1 Dn  log E4
.
die Summe der “exponentiellen Tiefen” aller Blätter.
Z0 = 0, Z1 = 1 (ein Blatt, mit exponentieller Tiefe 20 = 1)
Z2 = 2 (ein Blatt, mit exponentieller Tiefe 21 = 2)
E[Z3 ] = 4.
Gute und schlechte Bäume
Konstruktion
Wahrscheinlichkeitsraum
Erwartete Tiefe des kleinsten Schlüssels
Erwartete Höhe eines zufälligen Suchbaums
Gute und schlechte Bäume
Konstruktion
Wahrscheinlichkeitsraum
Erwartete Tiefe des kleinsten Schlüssels
Erwartete Höhe eines zufälligen Suchbaums
h i
E[Xn ] = log 2 E[Xn ]  log E 2Xn
i=1, i ist Blatt
Die Rekursionsgleichung
n
X
Zufällige Suchbäume
Zurück zu Treaps
Noch ein Trick...
i=1, i ist Blatt
die Summe der “exponentiellen Tiefen” aller Blätter.
Z0 = 0, Z1 = 1 (ein Blatt, mit exponentieller Tiefe 20 = 1)
Z2 = 2 (ein Blatt, mit exponentieller Tiefe 21 = 2)
E[Z3 ] = 4.
E[Zn ] =
Gute und schlechte Bäume
Konstruktion
Wahrscheinlichkeitsraum
Erwartete Tiefe des kleinsten Schlüssels
Erwartete Höhe eines zufälligen Suchbaums
Noch ein Trick...
h i
E[Xn ] = log 2 E[Xn ]  log E 2Xn
Definiere
Zufällige Suchbäume
Zurück zu Treaps
1 ]+ E[Zn i ])
=1/n
Beweis: Gegeben, dass die Wurzel x Rang i hat, sind BS <x und
BS >x zufällige Suchbäume mit jeweils i 1 und n i Schlüsseln,
deren Blätter zusammen genau die Blätter von BS enthalten. Die
exponentielle Tiefe jedes Blattes ist in BS doppelt so gross wie im
entsprechenden Teilbaum.
GW
Treaps
Sei zn := E[Zn ]. Wir haben die Rekursionsgleichung
8
falls n = 0,
< 0,
1,
falls n = 1, und
zn =
: 4 Pn
i=1 zi 1 , sonst.
n
hergeleitet. Um diese zu lösen, benutzen wir nun einen typischen
Trick. Für n 2 N, n 3 gilt
nzn = 4(z0 + z1 + . . . + zn
(n
1)zn
1
= 4(z0 + z1 + . . . + zn
GW
Treaps
2
+ zn
2)
1 ),
und
Gute und schlechte Bäume
Konstruktion
Wahrscheinlichkeitsraum
Erwartete Tiefe des kleinsten Schlüssels
Erwartete Höhe eines zufälligen Suchbaums
Zufällige Suchbäume
Zurück zu Treaps
Berechnung von E[Zn ]
Berechnung von E[Zn ]
Sei zn := E[Zn ]. Wir haben die Rekursionsgleichung
8
falls n = 0,
< 0,
1,
falls n = 1, und
zn =
: 4 Pn
z
,
sonst.
i
1
i=1
n
hergeleitet. Um diese zu lösen, benutzen wir nun einen typischen
Trick. Für n 2 N, n 3 gilt
nzn = 4(z0 + z1 + . . . + zn
(n
1)zn
1
= 4(z0 + z1 + . . . + zn
GW
2
+ zn
1 ),
2)
1
(n
= 4(z0 + z1 + . . . + zn
2
+ zn
1 ),
(n
und
2)
= 4(z0 + z1 + . . . + zn
+ zn
1 ),
und
2)
1)zn
1
= 4zn
2
+ zn
1 ),
und
2)
nzn
(n
1)zn
1
= 4zn
1
GW
Treaps
Gute und schlechte Bäume
Konstruktion
Wahrscheinlichkeitsraum
Erwartete Tiefe des kleinsten Schlüssels
Erwartete Höhe eines zufälligen Suchbaums
Zufällige Suchbäume
Zurück zu Treaps
Berechnung von E[Zn ]
Theorem
Die erwartete Summe der exponentiellen Tiefen aller Blätter in
einem Suchbaum über n Schlüsseln beträgt
Theorem
Die erwartete Summe der exponentiellen Tiefen aller Blätter in
einem Suchbaum über n Schlüsseln beträgt
(n + 3)(n + 2)(n + 1)
.
30
1
, nzn = (n + 3)zn 1
zn
zn 1
z2
1
,
=
= ··· =
=
.
(n + 3)(n + 2)(n + 1)
(n + 2)(n + 1)n
5·4·3
30
GW
= 4(z0 + z1 + . . . + zn
, nzn = (n + 3)zn 1
zn
zn 1
z2
1
,
=
= ··· =
=
.
(n + 3)(n + 2)(n + 1)
(n + 2)(n + 1)n
5·4·3
30
(n + 3)(n + 2)(n + 1)
.
30
1)zn
1
Subtraktion:
Gute und schlechte Bäume
Konstruktion
Wahrscheinlichkeitsraum
Erwartete Tiefe des kleinsten Schlüssels
Erwartete Höhe eines zufälligen Suchbaums
Berechnung von E[Zn ]
2
3 gilt
nzn = 4(z0 + z1 + . . . + zn
Treaps
Zufällige Suchbäume
Zurück zu Treaps
Subtraktion:
nzn
1
GW
3 gilt
1)zn
1)zn
Gute und schlechte Bäume
Konstruktion
Wahrscheinlichkeitsraum
Erwartete Tiefe des kleinsten Schlüssels
Erwartete Höhe eines zufälligen Suchbaums
nzn = 4(z0 + z1 + . . . + zn
(n
nzn = 4(z0 + z1 + . . . + zn
(n
Berechnung von E[Zn ]
Für n 2 N, n
hergeleitet. Um diese zu lösen, benutzen wir nun einen typischen
Trick. Für n 2 N, n 3 gilt
und
Gute und schlechte Bäume
Konstruktion
Wahrscheinlichkeitsraum
Erwartete Tiefe des kleinsten Schlüssels
Erwartete Höhe eines zufälligen Suchbaums
Zufällige Suchbäume
Zurück zu Treaps
Berechnung von E[Zn ]
Sei zn := E[Zn ]. Wir haben die Rekursionsgleichung
8
falls n = 0,
< 0,
1,
falls n = 1, und
zn =
: 4 Pn
z
,
sonst.
i
1
i=1
n
Treaps
Zufällige Suchbäume
Zurück zu Treaps
Für n 2 N, n
Gute und schlechte Bäume
Konstruktion
Wahrscheinlichkeitsraum
Erwartete Tiefe des kleinsten Schlüssels
Erwartete Höhe eines zufälligen Suchbaums
Zufällige Suchbäume
Zurück zu Treaps
Treaps
2
E[Xn ]  log E4
n
X
i=1, i ist Blatt
3
(n + 3)(n + 2)(n + 1)
2Dn 5 = log
< 3 log n.
30
(i)
GW
Treaps
2
E[Xn ]  log E4
n
X
i=1, i ist Blatt
3
(n + 3)(n + 2)(n + 1)
2Dn 5 = log
< 3 log n.
30
(i)
GW
Treaps
Zufällige Suchbäume
Zurück zu Treaps
Gute und schlechte Bäume
Konstruktion
Wahrscheinlichkeitsraum
Erwartete Tiefe des kleinsten Schlüssels
Erwartete Höhe eines zufälligen Suchbaums
Berechnung von E[Xn ]
Zufällige Suchbäume
Zurück zu Treaps
Gute und schlechte Bäume
Konstruktion
Wahrscheinlichkeitsraum
Erwartete Tiefe des kleinsten Schlüssels
Erwartete Höhe eines zufälligen Suchbaums
“Tail Estimates”
Theorem
Die erwartete Höhe eines zufälligen Suchbaums über n Schlüsseln
beträgt höchstens
3 log2 n.
GW
Treaps
Zufällige Suchbäume
Zurück zu Treaps
Markov-Ungleichung:

(n + 3)(n + 2)(n + 1)
1
Pr Zn > n ·
< .
30
n
Das heisst:
1
,
n
somit gilt, dass die Höhe nicht nur im Erwartungswert, sondern mit
hoher Wahrscheinlichkeit proportional zu log2 n ist!
Pr [Xn > 4 log2 n] <
GW
Treaps
Markov-Ungleichung:

(n + 3)(n + 2)(n + 1)
1
Pr Zn > n ·
< .
30
n
Das heisst:
1
,
n
somit gilt, dass die Höhe nicht nur im Erwartungswert, sondern mit
hoher Wahrscheinlichkeit proportional zu log2 n ist!
Pr [Xn > 4 log2 n] <
GW
Treaps
Zufällige Suchbäume
Zurück zu Treaps
Was bedeutet das für Treaps?
Treap: Suchbaum über n Schlüsseln,
Gute und schlechte Bäume
Konstruktion
Wahrscheinlichkeitsraum
Erwartete Tiefe des kleinsten Schlüssels
Erwartete Höhe eines zufälligen Suchbaums
“Tail Estimates”
Zufällige Suchbäume
Zurück zu Treaps
Was bedeutet das für Treaps?
Zufällige Suchbäume
Zurück zu Treaps
Was bedeutet das für Treaps?
Treap: Suchbaum über n Schlüsseln,
Treap: Suchbaum über n Schlüsseln,
in dem jedes Element eine zufällige Priorität hat, und
der bzgl. dieser Prioritäten ein Heap ist.
in dem jedes Element eine zufällige Priorität hat, und
der bzgl. dieser Prioritäten ein Heap ist.
in dem jedes Element eine zufällige Priorität hat, und
der bzgl. dieser Prioritäten ein Heap ist.
) Jeder Schlüssel hat mit gleicher Wahrscheinlichkeit die
höchste Priorität und ist damit die Wurzel.
) Jeder Schlüssel hat mit gleicher Wahrscheinlichkeit die
höchste Priorität und ist damit die Wurzel.
) Jeder Schlüssel hat mit gleicher Wahrscheinlichkeit die
höchste Priorität und ist damit die Wurzel.
Ein Treap mit zufälligen Prioritäten “ist” ein zufälliger
Suchbaum!
Ein Treap mit zufälligen Prioritäten “ist” ein zufälliger
Suchbaum!
Ein Treap mit zufälligen Prioritäten “ist” ein zufälliger
Suchbaum!
Die erwartete Höhe eines Treaps mit zufälligen Prioritäten ist
höchsten 3 log2 n.
Die erwartete Höhe eines Treaps mit zufälligen Prioritäten ist
höchsten 3 log2 n.
Die erwartete Höhe eines Treaps mit zufälligen Prioritäten ist
höchsten 3 log2 n.
GW
Treaps
GW
Treaps
GW
Treaps
Zufällige Suchbäume
Zurück zu Treaps
Zufällige Suchbäume
Zurück zu Treaps
Was bedeutet das für Treaps?
Was bedeutet das für Treaps?
Treap: Suchbaum über n Schlüsseln,
in dem jedes Element eine zufällige Priorität hat, und
der bzgl. dieser Prioritäten ein Heap ist.
) Jeder Schlüssel hat mit gleicher Wahrscheinlichkeit die
höchste Priorität und ist damit die Wurzel.
Ein Treap mit zufälligen Prioritäten “ist” ein zufälliger
Suchbaum!
Theorem
In einem Treap mit n Elementen ist die erwartete Zeit für das
Suchen, das Einfügen oder das Löschen eines Elements mit hoher
Wahrscheinlichkeit proportional zu log2 n.
Die erwartete Höhe eines Treaps mit zufälligen Prioritäten ist
höchsten 3 log2 n.
GW
Treaps
GW
Treaps
Herunterladen