Stochastik f¨ur InformatikerInnen - Institut für Informatik

Werbung
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
Stochastik für InformatikerInnen
Wintersemester 2009/10
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
Wolfgang Kössler
Humboldt-Universität zu Berlin, Institut für Informatik
7. Charakteristika
8. Exponential
10. Februar 2010
9. Normal
10.Transformation
1 / 895
Inhalt (1)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1
1. Grundbegriffe
2
2. Kombinatorik
3
3. Bedingte Wahrscheinlichkeit, Unabhängigkeit
4
4. Klassische Wahrscheinlichkeitsräume
5
5. Zufallsvariablen (allgemein)
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
2 / 895
Inhalt (2)
Stochastik für
InformatikerInnen
Wolfgang Kössler
6
6. Diskrete zufällige Variablen
7
7. Charakteristika von Verteilungsfunktionen
8
8. Die Exponentialverteilung
9
9. Die Normalverteilung
10
10. Transformation von Zufallsvariablen
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
3 / 895
Inhalt (3)
Stochastik für
InformatikerInnen
Wolfgang Kössler
11
11. Zufallsvektoren
12
12. Korrelation
13
13. Ungleichungen
14
14. Grenzwertsätze
15
15.Schätzmethoden
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
4 / 895
Inhalt (4)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
16
16. Grundlagen der Simulation
17
17. Markov’sche Ketten
18
18. Zusammenfassung
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
5 / 895
Inhalt
Stochastik für
InformatikerInnen
Wolfgang Kössler
1.1 Einleitung, Geschichte
1. Grundbegriffe
1.2 Zufällige Ereignisse
Einleitung
1.3 Ereignisfeld
Ereignisse
Ereignisfeld
1.4 Kolmogorov’sches Axiomensystem
Axiomensystem
Folgerungen
1.5 Folgerungen aus dem Kolmogorov-
Klass. Definition
2. Kombinatorik
Axiomensystem
3. Bedingte Wkt
1.6 Die klassische Definition der
4. Klass. Wkt.
Wahrscheinlichkeit
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
6 / 895
1. Grundbegriffe
Geschichte (1)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Einleitung
Ereignisse
antikes Griechenland
Begriff der Wkt.
Naturgesetze drücken sich durch eine Vielzahl
Ereignisfeld
Axiomensystem
von zufälligen Erscheinungen aus.
Folgerungen
Klass. Definition
2. Kombinatorik
1654, Chevalier de Mere, Pascal
Würfelspiele, Würfe mit 2 Würfeln. Wenn in 25
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
Würfen einmal eine Doppelsechs so hat C.d.M.
gewonnen, sonst sein Gegner.
6. Diskrete ZV
7. Charakteristika
7 / 895
Geschichte (2)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Einleitung
Ereignisse
Ereignisfeld
Axiomensystem
Folgerungen
Klass. Definition
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8 / 895
Geschichte (3)
Pascal, Fermat (Briefwechsel)
Stochastik für
InformatikerInnen
2 Personen-Spiele. Gespielt wird eine Serie von
Wolfgang Kössler
Partien, z.B. Schach (nur 0,1). Gewinnen soll der
1. Grundbegriffe
Spieler, der zuerst S Partien gewonnen hat, d.h.
Einleitung
Ereignisse
dieser Spieler erhält den vollen Einsatz.
Ereignisfeld
Axiomensystem
Abbruch des Spiels (z.B. wegen Zeitmangel)
Folgerungen
Klass. Definition
A hat a Gewinnpartien, a < S
2. Kombinatorik
B hat b Gewinnpartien, b < S
3. Bedingte Wkt
Wie ist der Einsatz gerecht zu verteilen?
4. Klass. Wkt.
Variante: ba , aber S wird nicht berücksichtigt!
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
Es wäre also der weitere mögliche Verlauf nach dem
Abbruch zu analysieren.
9 / 895
Geschichte (4)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
1662, Graunt; 1693 Halley
Sterlichkeitstafeln (Überlebenswkt. in
Abhängigkeit vom Lebensalter) →
Einleitung
Ereignisse
Rentenberechnung, Schiffsversicherung
Ereignisfeld
Axiomensystem
1713, Jacob Bernoulli
Folgerungen
Klass. Definition
“Ars conjectandi”: 1. Lehrbuch der Wkt.rechnung
2. Kombinatorik
Bernoulli-Gesetz der Großen Zahlen, p = P(A)
3. Bedingte Wkt
hn (A) = n1 # Auftreten v. A, hn (A) − p →n→∞ 0
4. Klass. Wkt.
1733, Moivre
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
Grenzwertsatz von Moivre-Laplace
√ X −µ
n · σ → N (0, 1)
10 / 895
Geschichte (5)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Einleitung
Ereignisse
Ereignisfeld
Axiomensystem
Folgerungen
Klass. Definition
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
11 / 895
Geschichte (6)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1812, Laplace
1. Grundbegriffe
klassische Definition der Wkt.
Einleitung
Ereignisse
Ereignisfeld
Axiomensystem
P(A) =
#für A günstigen Elem.ereignisse
#möglichen Elementarereignisse
Folgerungen
Klass. Definition
2. Kombinatorik
1800, Laplace, Gauss
Untersuchung von Beobachtungsfehlern
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
Kleinste Quadrat-Schätzung
Ende 19. Jh., Tschebyschev, Markov, Ljapunov
6. Diskrete ZV
7. Charakteristika
12 / 895
Geschichte (7)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Einleitung
Ereignisse
Ereignisfeld
Axiomensystem
Folgerungen
Klass. Definition
2. Kombinatorik
1900, David Hilbert
(2. Intern.Mathematikerkongress Paris)
23 Probleme der Mathematik,
u.a. Axiomatik der Wkt.rechnung.
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
13 / 895
Geschichte (8)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
1919 R.v. Mises
Einleitung
Ereignisse
Ereignisfeld
Axiomensystem
Folgerungen
Klass. Definition
statistische Definition der Wkt,
Erfahrung: P(A) := limn→∞ hn (A)
Existiert der Grenzwert?
2. Kombinatorik
1933, A.N. Kolmogorov
3. Bedingte Wkt
Axiomsystem der Wkt.rechnung
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
14 / 895
Stochastik
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Statistik:
Gesamtheit aller Methoden zur Analyse
zufallsbehafteter Datenmengen
Einleitung
Ereignisse
→ Aussagen über die zugrundeliegende
Ereignisfeld
Axiomensystem
Grundgesamtheit treffen.
Folgerungen
Klass. Definition
Wahrscheinlichkeitsrechnung:
2. Kombinatorik
gegebene Grundgesamtheit (Verteilung)
3. Bedingte Wkt
→ Aussagen über Realisierungen einer
4. Klass. Wkt.
Zufallsvariablen treffen.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
———————————————
Stochastik: (grch.) im Rechnen geschickt.
15 / 895
Literatur
Stochastik für
InformatikerInnen
Wolfgang Kössler
Mathar, R. und Pfeiffer, D. (1990) Stochastik für
Informatiker, Stuttgart
1. Grundbegriffe
Einleitung
Pflug, G. (1986). Stochastische Modelle in der Informatik,
Ereignisse
Ereignisfeld
Stuttgart
Axiomensystem
Folgerungen
Klass. Definition
2. Kombinatorik
3. Bedingte Wkt
Greiner, M. und Tinhofer, G. (1996) Stochastik für
Studienanfänger der Informatik, München
Rosanov, J.A. (1970). Wahrscheinlichkeitstheorie, Berlin
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
Flachsmeyer, J. (1970). Kombinatorik, Berlin
Henze, N. (2004), Stochastik für Einsteiger, Wiesbaden
16 / 895
Inhalt
Stochastik für
InformatikerInnen
Wolfgang Kössler
1.1 Einleitung, Geschichte
1. Grundbegriffe
1.2 Zufällige Ereignisse
Einleitung
1.3 Ereignisfeld
Ereignisse
Ereignisfeld
1.4 Kolmogorov’sches Axiomensystem
Axiomensystem
Folgerungen
1.5 Folgerungen aus dem Kolmogorov-
Klass. Definition
2. Kombinatorik
Axiomensystem
3. Bedingte Wkt
1.6 Die klassische Definition der
4. Klass. Wkt.
Wahrscheinlichkeit
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
17 / 895
1.2 Zufällige Ereignisse
Stochastik für
InformatikerInnen
Wolfgang Kössler
Def. 1 Ein zufälliger Versuch (Experiment)
ist ein Versuch mit ungewissem Ausgang.
1. Grundbegriffe
Einleitung
Beispiel: Glücksspiele.
Ereignisse
Ereignisfeld
Axiomensystem
Folgerungen
Klass. Definition
2. Kombinatorik
Wichtig bei solchen Experimenten ist:
die Beschreibung des Experiments
3. Bedingte Wkt
4. Klass. Wkt.
(Kartenspiele, Münzwurf),
5. Zufallsvariablen
die Erfassung der Menge aller möglichen
6. Diskrete ZV
Ausgänge des Experiments.
7. Charakteristika
18 / 895
Zufällige Ereignisse (2)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Def. 2 (Grundbegriffe)
Elementarereignis: möglicher Versuchsausgang,
Bez.: ω, ω ∈ Ω.
Einleitung
Ereignisse
Ereignis: Menge von El.ereignissen, A ⊂ Ω
Ereignisfeld
Axiomensystem
Folgerungen
Klass. Definition
sicheres Ereignis: Menge aller El.ereignisse: Ω.
unmögiches Ereignis: ∅.
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
Komplementärereignis: A = Ω \ A
Ein Experiment kann diskret sein, d.h. endlich oder
abzählbar viele Ausgänge besitzen, oder es kann
6. Diskrete ZV
7. Charakteristika
überabzählbar viele Ausgänge haben.
19 / 895
Zufällige Ereignisse (3)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Experimente mit einer endlichen
Anzahl von Elementarereignissen
Münzwurf
Einleitung
Ereignisse
Ereignisfeld
Axiomensystem
zwei Elementarereignisse: {Zahl (z)},
{Wappen (w)};
Folgerungen
Klass. Definition
2. Kombinatorik
das unmögliche Ereignis ∅ = {z} ∩ {w};
das sichere Ereignis Ω := {z, w}.
3. Bedingte Wkt
4. Klass. Wkt.
Die Menge der auftretenden Ereignisse ist
5. Zufallsvariablen
P(Ω) := {∅, {z}, {w}, Ω},
6. Diskrete ZV
die Potenzmenge von Ω.
7. Charakteristika
20 / 895
Zufällige Ereignisse (4)
Stochastik für
InformatikerInnen
Würfeln (1 mal)
Wolfgang Kössler
1. Grundbegriffe
Elementarereignisse:
Einleitung
Ereignisse
{1}, {2}, {3}, {4}, {5}, {6},
Ereignisfeld
Axiomensystem
Folgerungen
Klass. Definition
d.h. Ω = {1, 2, 3, 4, 5, 6}.
Damit erhalten wir für
2. Kombinatorik
paarweise verschiedene
3. Bedingte Wkt
i, j, k, l, m ∈
4. Klass. Wkt.
{1, 2, 3, 4, 5, 6} die
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
möglichen Ereignisse :
Ereignistyp
Anzahl
∅
1
{i}
6
{i, j}
15
{i, j, k}
20
{i, j, k, l}
15
{i, j, k , l, m}
6
Ω
1
insgesamt 26 = 64
21 / 895
Zufällige Ereignisse (5)
Stochastik für
InformatikerInnen
Experimente mit abzählbar
Wolfgang Kössler
vielen Elementarereignissen
1. Grundbegriffe
1
Einleitung
Ereignisse
Werfen einer Münze, bis zum ersten Mal die
Zahl fällt
Ereignisfeld
Axiomensystem
Folgerungen
Ω = {z, wz, wwz, wwz, wwwz, . . .}.
Klass. Definition
2. Kombinatorik
3. Bedingte Wkt
Anzahl der ankommenden Fahrzeuge an einer
4. Klass. Wkt.
Kreuzung in einem bestimmten Zeitbereich
2
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
Ω = {0, 1, 2, . . .}.
22 / 895
Zufällige Ereignisse (6)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Experimente mit überabzählbar
vielen Elementarereignissen
Lebensdauer einer Glühbirne
Einleitung
Ereignisse
Ereignisfeld
Ω = [0, ∞[ = R+ .
Axiomensystem
Folgerungen
Klass. Definition
2. Kombinatorik
3. Bedingte Wkt
Ereignisse sind bei diesem Experiment
z.B. Intervalle und Punkte.
Es gilt beispielsweise: ∅ = [0, 1] ∩ [3, 5] .
4. Klass. Wkt.
5. Zufallsvariablen
Das Ereignis A = {[0.4, 3.1], {7}} bedeutet, daß
6. Diskrete ZV
die Glühbirne eine Lebensdauer von 7s oder
7. Charakteristika
eine Lebensdauer zwischen 0.4s und 3.1s hat.23 / 895
Zufällige Ereignisse (7)
Stochastik für
InformatikerInnen
Wolfgang Kössler
überabzählbar viele Elementarereignisse
Messung einer physikalischen Konstante
1. Grundbegriffe
Einleitung
Ereignisse
Ereignisfeld
y = |{z}
ε .
m + |{z}
|{z}
Meßwert
Konstante
Meßfehler
Axiomensystem
Folgerungen
Die Meßfehler sind die Elementarereignisse.
Klass. Definition
2. Kombinatorik
Ereignisse sind beispielsweise Intervalle.
3. Bedingte Wkt
Experimente, deren Ausgänge Funktionen der
4. Klass. Wkt.
Zeit sind, Ω = Ω0 × T . Ereignisse im Experiment
5. Zufallsvariablen
sind dann bestimmte Funktionsverläufe =⇒
6. Diskrete ZV
7. Charakteristika
stochastische Prozesse.
24 / 895
Inhalt
Stochastik für
InformatikerInnen
Wolfgang Kössler
1.1 Einleitung, Geschichte
1. Grundbegriffe
1.2 Zufällige Ereignisse
Einleitung
1.3 Ereignisfeld
Ereignisse
Ereignisfeld
1.4 Kolmogorov’sches Axiomensystem
Axiomensystem
Folgerungen
1.5 Folgerungen aus dem Kolmogorov-
Klass. Definition
2. Kombinatorik
Axiomensystem
3. Bedingte Wkt
1.6 Die klassische Definition der
4. Klass. Wkt.
Wahrscheinlichkeit
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
25 / 895
1.3 Ereignisfeld
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Einleitung
Ereignisse
Ereignisfeld
Axiomensystem
Folgerungen
Klass. Definition
2. Kombinatorik
Ein Ereignisfeld E ist (grob) ein System von
Teilmengen der Menge Ω. Es gilt: E ⊆ P(Ω).
Def. 3 (∪, ∩, Komplement)
Es seien A1 ∈ E und A2 ∈ E Ereignisse. Dann
A3 := A1 ∩ A2 = {ω ∈ Ω : ω ∈ A1 und ω ∈ A2 } das
Ereignis, bei dem A1 und A2 eintreten;
3. Bedingte Wkt
A3 := A1 ∪ A2 = {ω ∈ Ω : ω ∈ A1 oder ω ∈ A2 }
4. Klass. Wkt.
das Ereignis, bei dem A1 oder A2 eintreten;
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
A1 = Ω \ A1 = {ω ∈ Ω : ω ∈
/ A1 } das zu A1
komplementäre Ereignis.
26 / 895
Ereignisfeld (2)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Einleitung
Ereignisse
Es gilt offenbar:
Ereignisfeld
Axiomensystem
A ∪ A = Ω (sicheres Ereignis),
Folgerungen
Klass. Definition
A ∩ A = ∅ (unmögliches Ereignis).
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
27 / 895
Ereignisfeld (3)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Satz (Rechenregeln für Ereignisse)
(i) A ∪ B = B ∪ A (Kommutativgesetz)
(ii)
(A ∪ B) ∪ C = A ∪ (B ∪ C)
Einleitung
(Assoziativgesetz)
Ereignisse
Ereignisfeld
Axiomensystem
Folgerungen
Klass. Definition
(iii)
A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C)
(iv)
A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C)
2. Kombinatorik
(Distributivgesetze)
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
(v)
(De’Morgansche Regeln)
(A ∪ B) = A ∩ B
(A ∩ B) = A ∪ B
28 / 895
Ereignisfeld (4)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Einleitung
Ereignisse
Ereignisfeld
Axiomensystem
Folgerungen
Klass. Definition
2. Kombinatorik
3. Bedingte Wkt
Def. 4
Seien A1 , . . . , An , . . . Ereignisse. Die Vereinigung
S∞
i=1 Ai ist das Ereignis, das eintritt, wenn
mindestens eines Ereignisse A1 , A2 , A3 , . . . eintritt.
T
Der Durchschnitt ∞
i=1 Ai ist das Ereignis, das eintritt,
wenn alle Ereignisse A1 , A2 , A3 , . . . eintreten.
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
29 / 895
Ereignisfeld (5)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Einleitung
Ereignisse
Ereignisfeld
Verallgemeinerungen der Rechenregeln
Seien A, A1 , . . . Ereignisse.
S
S∞
(iii) A ∩ ( ∞
i=1 Ai ) =
i=1 (A ∩ Ai )
T∞
T∞
(iv) A ∪ ( i=1 Ai ) = i=1 (A ∪ Ai )
Axiomensystem
Folgerungen
(v)
Klass. Definition
2. Kombinatorik
∞
[
3. Bedingte Wkt
Ai =
i=1
4. Klass. Wkt.
5. Zufallsvariablen
∞
\
6. Diskrete ZV
i=1
7. Charakteristika
∞
\
Ai
i=1
Ai =
∞
[
Ai
i=1
30 / 895
Ereignisfeld (6)
Stochastik für
InformatikerInnen
Wolfgang Kössler
Def. 5
E ⊆ P(Ω) heißt Ereignisfeld über Ω
1. Grundbegriffe
Einleitung
falls folgendes gilt:
Ereignisse
Ereignisfeld
1
Ω ∈ E;
2
Gilt Ai ∈ E für i ∈ N, dann folgt
Axiomensystem
Folgerungen
Klass. Definition
3
4. Klass. Wkt.
Ai ∈ E;
i=1
2. Kombinatorik
3. Bedingte Wkt
∞
T
A ∈ E =⇒ A ∈ E.
E heißt auch σ–Algebra über Ω.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
31 / 895
Ereignisfeld (7)
Grundlegende Eigenschaften
Stochastik für
Elementarereignisse schließen sich gegenseitig
InformatikerInnen
Wolfgang Kössler
aus.
1. Grundbegriffe
Es tritt immer nur genau ein Elementarereignis
Einleitung
ein.
Ereignisse
Ereignisfeld
Ein Ereignis tritt genau dann ein, wenn eines
Axiomensystem
Folgerungen
seiner Elementarereignisse eintritt.
Klass. Definition
2. Kombinatorik
Folgerung
3. Bedingte Wkt
4. Klass. Wkt.
1
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
Ist Ai ∈ E
∀i ∈ N, so folgt:
∞
S
Ai ∈ E.
i=1
2
Für das unmögliche Ereignis gilt: ∅ ∈ E.
32 / 895
Ereignisfeld (8)
Beweis der Folgerung
Stochastik für
InformatikerInnen
1
Wolfgang Kössler
Ai ∈ E, ∀i ∈ N =⇒ Ai ∈ E, ∀i ∈ N (Def. 5.3)
∞
\
=⇒
Ai ∈ E (Def. 5.2)
1. Grundbegriffe
Einleitung
Ereignisse
Ereignisfeld
i=1
Axiomensystem
∞
[
Folgerungen
=⇒
Klass. Definition
2. Kombinatorik
3. Bedingte Wkt
=⇒
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
i=1
∞
[
Ai ∈ E (de Morgan)
Ai ∈ E (Def. 5.3)
i=1
2
Nach Def. 5.1 gilt: Ω ∈ E. Wegen ∅ = Ω und Def.
5.3 folgt dann: ∅ ∈ E.
33 / 895
Ereignisfeld (9)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Einleitung
Ereignisse
Ereignisfeld
Axiomensystem
Folgerungen
Def. 6 Zwei Ereignisse A1 , A2 ∈ E heißen
unvereinbar (disjunkt), falls A1 ∩ A2 = ∅ gilt. Wir
sagen dann auch, diese beiden Ereignisse schließen
Klass. Definition
2. Kombinatorik
einander aus.
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
34 / 895
Inhalt
Stochastik für
InformatikerInnen
Wolfgang Kössler
1.1 Einleitung, Geschichte
1. Grundbegriffe
1.2 Zufällige Ereignisse
Einleitung
1.3 Ereignisfeld
Ereignisse
Ereignisfeld
1.4 Kolmogorov’sches Axiomensystem
Axiomensystem
Folgerungen
1.5 Folgerungen aus dem Kolmogorov-
Klass. Definition
2. Kombinatorik
Axiomensystem
3. Bedingte Wkt
1.6 Die klassische Definition der
4. Klass. Wkt.
Wahrscheinlichkeit
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
35 / 895
1.4 Kolmogorov- Axiomensystem
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Def. 7 (Wahrscheinlichkeit) Sei E ein Ereignisfeld.
Eine Abbildung P : E −→ R heißt Wahrscheinlichkeit,
falls sie die folgenden Eigenschaften hat:
Einleitung
Ereignisse
1
Für alle A ∈ E gilt: 0 ≤ P(A) ≤ 1;
2
P(Ω) = 1;
3
2. Kombinatorik
Sind die Ereignisse A1 , A2 , . . . paarweise
3. Bedingte Wkt
unvereinbar (d.h. Ai ∩ Aj = ∅ für i 6= j, i, j ∈ N),
Ereignisfeld
Axiomensystem
Folgerungen
Klass. Definition
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
so gilt die sogenannte σ–Additivitätseigenschaft:
!
∞
∞
[
X
P
Ai =
P(Ai ).
i=1
i=1
36 / 895
Kolmogorov’sches Axiomensystem (2)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Def. 8 (Wahrscheinlichkeitsraum)
Sei Ω die Menge der Elementarereignisse, E ein
Einleitung
Ereignisse
Ereignisfeld
Axiomensystem
Folgerungen
Klass. Definition
Ereignisfeld über Ω (E ⊆ P(Ω)) und P genüge den
KOLMOGOROV–Axiomen, dann heißt das Tripel
(Ω, E, P) Wahrscheinlichkeitsraum.
2. Kombinatorik
3. Bedingte Wkt
Mittels dieses Begriffes ist eine vollständige
4. Klass. Wkt.
Beschreibung eines zufälligen Experimentes
5. Zufallsvariablen
möglich.
6. Diskrete ZV
7. Charakteristika
37 / 895
Kolmogorov’sches Axiomensystem (3)
Stochastik für
InformatikerInnen
Wir betrachten nun A ⊆ P(Ω), ein System von
Wolfgang Kössler
Teilmengen der Menge Ω. Dann können wir die
1. Grundbegriffe
folgende Menge bilden:
Einleitung
Ereignisse
Ereignisfeld
E(A) = {E : A ⊆ E, E ist Ereignisfeld} .
Axiomensystem
Folgerungen
Klass. Definition
Dann ist die Menge
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
EA =
\
E
E∈E(A)
5. Zufallsvariablen
die von A erzeugte σ–Algebra (Ereignisfeld) bzw. die
6. Diskrete ZV
kleinste σ–Algebra über Ω, die A enthält.
7. Charakteristika
38 / 895
Kolmogorov’sches Axiomensystem (4)
Beispiele für Wahrscheinlichkeitsräume (Ω, E, P)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Einleitung
Ereignisse
Ereignisfeld
Axiomensystem
Folgerungen
Klass. Definition
Klassische Wahrscheinlichkeitsräume
Ω = {ω1 , . . . , ωN }, E = P(Ω).
P(ω) = P({ωi }) =
1
N
∀i = 1, . . . , N. D.h. alle
Elementarereignisse sind gleichwahrscheinlich.
Def. 9(klassische Def. der Wkt.) Sei A ∈ E.
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
P(A) =
#{ω, ω ∈ A}
#für A günstigen El. ereign.
=
N
#möglichen El.ereignisse
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
39 / 895
Kolmogorov’sches Axiomensystem (5)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Borel-Mengen
Es sei Ω = R und
Einleitung
Ereignisse
Ereignisfeld
A = {[a, b[ : − ∞ < a < b < ∞} ⊆ P(Ω).
Axiomensystem
Folgerungen
Klass. Definition
die Menge der halboffenen Intervalle. Dann ist
2. Kombinatorik
B 1 := EA die σ-Algebra der B OREL–Mengen.
3. Bedingte Wkt
(R, B 1 , P) ist dann ein Wahrscheinlichkeitsraum mit
4. Klass. Wkt.
5. Zufallsvariablen
irgendeiner Wahrscheinlichkeit P.
6. Diskrete ZV
7. Charakteristika
40 / 895
Kolmogorov’sches Axiomensystem (6)
Stochastik für
InformatikerInnen
Wolfgang Kössler
Es sei Ω = [0, 1]. Weiterhin betrachten wir:
E = {A : A = B ∩ [0, 1], B ∈ B 1 }.
1. Grundbegriffe
Einleitung
Ereignisse
Ereignisfeld
Axiomensystem
die Menge der Borelmengen auf dem Intervall [0, 1].
R
P : A −→ R mit P(A) := dx.
A
Folgerungen
Klass. Definition
3. Bedingte Wkt
4. Klass. Wkt.
P(Ω) =
P 12 , 34
=
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
1
Z
2. Kombinatorik
P
1 2
dx = 1
0
1
4
1
2
Z
dx = 0
=
1
2
41 / 895
Kolmogorov’sches Axiomensystem (7)
Stochastik für
InformatikerInnen
Wolfgang Kössler
Q : A −→ R mit Q(A) :=
R
A
3
(1
2
− x 2 )dx
1. Grundbegriffe
Einleitung
Z
Ereignisse
Ereignisfeld
Q(Ω) =
Axiomensystem
Folgerungen
Klass. Definition
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
=
1
3
(1 − x 2 )dx
0 2
1
3
x 3 x−
2
3 0
= 1
(Ω, E, P) und (Ω, E, Q) sind
Wahrscheinlichkeitsräume.
6. Diskrete ZV
7. Charakteristika
42 / 895
Inhalt
Stochastik für
InformatikerInnen
Wolfgang Kössler
1.1 Einleitung, Geschichte
1. Grundbegriffe
1.2 Zufällige Ereignisse
Einleitung
1.3 Ereignisfeld
Ereignisse
Ereignisfeld
1.4 Kolmogorov’sches Axiomensystem
Axiomensystem
Folgerungen
1.5 Folgerungen aus dem Kolmogorov-
Klass. Definition
2. Kombinatorik
Axiomensystem
3. Bedingte Wkt
1.6 Die klassische Definition der
4. Klass. Wkt.
Wahrscheinlichkeit
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
43 / 895
1.5 Folgerungen aus dem
Kolmogorov- Axiomensystem
Stochastik für
InformatikerInnen
Wolfgang Kössler
Sei (Ω, E, P) W.-raum und A, B, A1 , . . . , An Ereignisse.
1
P(A) = 1 − P(A).
2
P(∅) = 0.
3
Sei A ⊆ B. Dann gilt:
1. Grundbegriffe
Einleitung
Ereignisse
Ereignisfeld
Axiomensystem
Folgerungen
1
B \ A ∈ E;
2. Kombinatorik
2
P(B \ A) = P(B) − P(A) (Subtraktivität);
3. Bedingte Wkt
3
P(A) ≤ P(B) (Monotonie der Wkt).
Klass. Definition
4. Klass. Wkt.
5. Zufallsvariablen
4
P(A ∪ B) = P(A) + P(B) − P(A ∩ B),
P(A ∪ B) ≤ P(A) + P(B).
6. Diskrete ZV
7. Charakteristika
Sind A und B unvereinbar, so gilt die Gleichheit.
44 / 895
Folgerungen (2)
Stochastik für
InformatikerInnen
Wolfgang Kössler
Es sei {An : n ∈ N} eine Folge von Ereignissen
5
1. Grundbegriffe
Einleitung
Ereignisse
Es sei An ⊆ An+1 , ∀n ∈ N. Dann gilt:
P lim An = lim P(An ).
n→∞
Ereignisfeld
n→∞
Axiomensystem
Folgerungen
Klass. Definition
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
6
Stetigkeit (des Wkts.maßes) von unten“
”
Es sei An ⊇ An+1 , ∀n ∈ N. Dann gilt:
P lim An = lim P(An ).
n→∞
n→∞
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
Stetigkeit (des Wkts.maßes) von oben“
”
45 / 895
Beweis Folgerungen 1 und 2
Stochastik für
InformatikerInnen
Wolfgang Kössler
1
Es gilt: Ω = A ∪ (Ω \ A) = A ∪ A, für alle A ∈ E.
Wegen A ∩ A = ∅ folgt:
1. Grundbegriffe
Einleitung
1 = P(Ω) = P(A ∪ A)
Ereignisse
Ereignisfeld
Axiomensystem
= P(A) + P(A)
Folgerungen
Klass. Definition
Wir stellen um und erhalten: P(A) = 1 − P(A).
2. Kombinatorik
3. Bedingte Wkt
2
Wegen ∅ = Ω \ Ω = Ω folgt aus Aussage 1:
4. Klass. Wkt.
5. Zufallsvariablen
P(∅) = 1 − P(Ω) = 0.
6. Diskrete ZV
7. Charakteristika
46 / 895
Beweis Folgerungen 3
Stochastik für
InformatikerInnen
Wolfgang Kössler
3
Es seien A, B ∈ E zwei Ereignisse mit A ⊆ B.
1
Es gilt:
B \ A = B ∩ A.
1. Grundbegriffe
Einleitung
Wegen B ∈ E und A ∈ E folgt nach Def. 5.(2.),
Ereignisse
Ereignisfeld
dass auch die Menge B \ A ∈ E ist.
Axiomensystem
Folgerungen
Klass. Definition
2. Kombinatorik
3. Bedingte Wkt
2
Aus B = A ∪ (B \ A) und A ∩ (B \ A) = ∅ folgt:
P(B) = P(A ∪ (B \ A))
= P(A) + P(B \ A)
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
Wir stellen um und erhalten:
P(B) − P(A) = P(B \ A).
47 / 895
Beweis Folgerungen 4.-6.
Stochastik für
InformatikerInnen
4
Wenn wir die Subtraktivitätsgleichung etwas
Wolfgang Kössler
umstellen, erhalten wir:
1. Grundbegriffe
Einleitung
P(B) = P(A) + P(B \ A).
Ereignisse
Ereignisfeld
Axiomensystem
Wegen Definition 7.(1.) folgt daraus sofort:
Folgerungen
Klass. Definition
P(A) ≤ P(B).
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5
Es sei nun {An : n ∈ N} eine Folge von
5. Zufallsvariablen
Ereignissen mit An ⊆ An+1 , ∀n ∈ N.
6. Diskrete ZV
Nach Definition der Ereignisfolge (An ) gilt:
7. Charakteristika
48 / 895
Beweis Folgerung 5 (1)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Einleitung
Ereignisse
Ereignisfeld
lim An =
n→∞
∞
[
Ak .
k =1
Wir definieren:
B1 := A1
Axiomensystem
Folgerungen
Klass. Definition
2. Kombinatorik
3. Bedingte Wkt
B2 := A2 \ A1
..
.
Bn := An \ An−1
usw.
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
Offenbar gilt für alle i, j ∈ N mit i 6= j:
∞
∞
[
[
Bi ∩ Bj = ∅
Ak =
Bk .
k =1
k =1
49 / 895
Beweis Folgerung 5 (2)
Stochastik für
InformatikerInnen
Wolfgang Kössler
P
1. Grundbegriffe
lim An
n→∞
= P
Einleitung
Ereignisse
∞
[
=
Ereignisfeld
Ak
3. Bedingte Wkt
4. Klass. Wkt.
k =1
= P(A1 ) +
6. Diskrete ZV
7. Charakteristika
∞
X
P(Ak \ Ak −1 )
= P(A1 ) + lim
n→∞
=
=
Bk
k =1
k =2
5. Zufallsvariablen
!
P(Bk ) (Definition 7.(3.))
Klass. Definition
2. Kombinatorik
=P
∞ k =1
X
Axiomensystem
Folgerungen
∞
[
!
lim
n→∞
n
X
k =2
n
X
P(A1 ) +
lim P(An ).
P(Ak \ Ak −1 )
!
(P(Ak ) − P(Ak −1 ))
k =2
n→∞
50 / 895
Beweis Folgerung 6 (1)
Stochastik für
InformatikerInnen
6
Es sei nun {An : n ∈ N} eine Folge von
Wolfgang Kössler
Ereignissen mit der Eigenschaft An ⊇ An+1 ,
1. Grundbegriffe
∀n ∈ N.
Einleitung
Ereignisse
Dann gilt:
Ereignisfeld
Axiomensystem
Folgerungen
lim An =
n→∞
Unter Anwendung der
3. Bedingte Wkt
Regeln erhalten wir:
DE
4. Klass. Wkt.
5. Zufallsvariablen
lim An =
n→∞
6. Diskrete ZV
7. Charakteristika
Ak .
k =1
Klass. Definition
2. Kombinatorik
∞
\
M ORGAN’schen
∞
[
Ak .
k =1
Außerdem gilt: Ak ⊆ Ak +1 . Dann
51 / 895
Beweis Folgerung 6 (2)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
P
lim An
n→∞
∞
[
= P
!
Ak
k =1
Einleitung
∞
[
Ereignisse
Ereignisfeld
Axiomensystem
Folgerungen
Klass. Definition
2. Kombinatorik
3. Bedingte Wkt
= 1−P
!
Ak
(Aussage 1)
k =1
= 1 − P lim An
n→∞
= 1 − lim P(An ) (Aussage 4)
n→∞
4. Klass. Wkt.
= 1 − lim (1 − P(An ))
n→∞
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
=
lim P(An ).
n→∞
52 / 895
Folgerungen (Fortsetz.)
Subadditivität von P
Stochastik für
InformatikerInnen
Seien A1 , A2 , . . . Ereignisse. Dann gilt:
Wolfgang Kössler
P(
1. Grundbegriffe
Ai ) ≤
∞
X
i=1
Einleitung
Ereignisse
∞
[
Beweis:
[
Ereignisfeld
Axiomensystem
Folgerungen
Klass. Definition
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
B1 := A1
B2 := A2 \ A1
B3 := A3 \ (A1 ∪ A2 )
... [
Bi := Ai \ ( Aj ) ...
j<i
Bi paarw. disjunkt, Bi ⊆ Ai .
P(Ai )
i=1
P(
Bi
=
i≥1
∞
[
[
Ai ⇒
i≥1
Ai ) = P(
i=1
∞
[
Bi )
i=1
=
≤
∞
X
i=1
∞
X
P(Bi ) (3.Ax.)
P(Ai ) (Mon.)
i=1
53 / 895
Folgerungen (8)
Stochastik für
InformatikerInnen
Wolfgang Kössler
Siebformel, Prinzip von Inklusion und Exklusion
Seien A1 , . . . , An Ereignisse. Dann gilt:
1. Grundbegriffe
Einleitung
P(
n
[
\
(−1)|I|−1 P( Ai )
X
Ai ) =
Ereignisse
Ereignisfeld
I⊆{1,...,n},I6=∅
i=1
Axiomensystem
Folgerungen
Klass. Definition
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
=
n
X
i∈I
P(Ai ) −
i=1
(−1)n+1
X
P(Ai ∩ Aj ) + −...
i<j
X
i1 <i2 <···<in
P(
n
\
Aiν )
ν=1
5. Zufallsvariablen
6. Diskrete ZV
auch: Formel von Poincare-Sylvester
7. Charakteristika
(Montmort: Briefwechsel mit Bernoulli)
54 / 895
Siebformel
Beweis: (Induktion nach n)
Stochastik für
1
InformatikerInnen
Wolfgang Kössler
IA n = 1 trivial, (n = 2 : Subtraktivität)
P(A1 ∪ A2 ) = P(A1 ) + P(A2 ) − P(A1 ∩ A2 )
2
X
X
=
P(Ai ) −
P(Ai ∩ Aj )
1. Grundbegriffe
Einleitung
Ereignisse
i=1
Ereignisfeld
Axiomensystem
=
Folgerungen
Klass. Definition
I={1,2}
X
\
(−1)|I|−1 P( Ai )
I⊆{1,...,n},I6=∅
i∈I
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
2
IS: Aussage der Folgerung gelte für n. Dann
n+1
[
P(
i=1
Ai ) = P(
n
[
Ai ) + P(An+1 ) − P(
i=1
n
[
(Ai ∩ An+1 ))
i=1
wegen Subtraktivität.
55 / 895
Siebformel
Beweis (2)
Stochastik für
InformatikerInnen
Wolfgang Kössler
Auf den ersten und dritten Summanden wird jeweils
1. Grundbegriffe
die IV angewendet. Der dritte Summand ist gleich
Einleitung
Ereignisse
Ereignisfeld
Axiomensystem
Folgerungen
Klass. Definition
− P(
n
[
(Ai ∩ An+1 ))
i=1
=−
\
(−1)|J|−1 P( (Ai ∩ An+1 ))
X
2. Kombinatorik
J⊆{1,...,n},J6=∅
3. Bedingte Wkt
4. Klass. Wkt.
=
i∈J
X
{n+1}⊆J⊆{1,...,n+1},J6={n+1}
\
(−1)|J|−1 P( Ai ).
i∈J
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
56 / 895
Siebformel
Beweis (3)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Einleitung
Untersuchung der Indexmengen:
1. Summe: alle nichtleeren Teilmengen von
{1, . . . , n}
Ereignisse
Ereignisfeld
Axiomensystem
Folgerungen
3. Summe: alle nicht-1-Element. Teilmengen von
{1, . . . , n + 1}, die das Element n + 1 enthalten
Klass. Definition
2. Kombinatorik
2. Summe: das Element n + 1.
3. Bedingte Wkt
Damit tauchen alle nichtleeren Teilmengen von
4. Klass. Wkt.
{1, . . . , n + 1} in einer der Summanden auf.
5. Zufallsvariablen
Alle Summanden haben die gleiche Form, wie in der
6. Diskrete ZV
Siebformel.
7. Charakteristika
57 / 895
Beispiele zur Siebformel (1)
Stochastik für
InformatikerInnen
Rencontre-Problem
Wolfgang Kössler
n Studenten sollen schriftlich von einer Änderung
1. Grundbegriffe
Einleitung
Ereignisse
Ereignisfeld
Axiomensystem
Folgerungen
Klass. Definition
2. Kombinatorik
3. Bedingte Wkt
des Vorlesungstermins benachrichtigt werden. Im
irrtümlichen Glauben, daß jeder der n Briefe den
gleichen Inhalt aufweist, verteilt eine Sekretärin die
Briefe willkürlich in die verschiedenen Umschläge.
Wie groß ist die Wahrscheinlichkeit, daß mindestens
ein Brief in den richtigen Umschlag gelangt?
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
Welchen Wert erhält man für n → ∞?
Lösung: Übung.
58 / 895
Beispiele zur Siebformel (2)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Einleitung
Sortierprobleme
geg.: Feld der Länge n
Daten zufällig angeordnet, gleichverteilt mit Wkt.
Ereignisse
Ereignisfeld
1
.
n!
Wie groß ist die Wahrscheinlichkeit, daß mindestens
Axiomensystem
Folgerungen
Klass. Definition
ein Feldelement schon an der richtigen Stelle liegt.?
Welchen Wert erhält man für n → ∞?
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
das ist dasselbe wie beim Rencontre-Problem.
Wie groß ist die Wkt., daß genau k Elemente bereits
am richtigen Platz stehen? → Übung
6. Diskrete ZV
7. Charakteristika
59 / 895
Folgerungen aus der Siebformel
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Bonferroni-Ungleichungen (1)
Die Ungleichung
Einleitung
Ereignisse
Ereignisfeld
P(A ∪ B) ≤ P(A) + P(B)
Axiomensystem
Folgerungen
Klass. Definition
2. Kombinatorik
3. Bedingte Wkt
heißt Bonferroni-Ungleichung.
Weitere (Bonferroni)- Ungleichungen erhält man
durch Abbruch der Siebformel nach Gliedern mit
4. Klass. Wkt.
5. Zufallsvariablen
positivem (≤) bzw. negativem (≥) Vorzeichen.
6. Diskrete ZV
7. Charakteristika
60 / 895
Folgerungen aus der Siebformel
Stochastik für
InformatikerInnen
Bonferroni-Ungleichungen (2)
Wolfgang Kössler
1. Grundbegriffe
P(A ∪ B ∪ C) ≤ P(A) + P(B) + P(C)
(n = 1)
P(A ∪ B ∪ C) ≥ P(A) + P(B) + P(C)
(n = 2)
Einleitung
Ereignisse
Ereignisfeld
Axiomensystem
Folgerungen
−P(A ∩ B) − P(A ∩ C) − P(B ∩ C)
Klass. Definition
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
P(A ∪ B ∪ C) ≤ P(A) + P(B) + P(C)
−P(A ∩ B) − P(A ∩ C) − P(B ∩ C)
+P(A ∩ B ∩ C)
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
(n=3, es gilt hier sogar Gleichheit)
61 / 895
Inhalt
Stochastik für
InformatikerInnen
Wolfgang Kössler
1.1 Einleitung, Geschichte
1. Grundbegriffe
1.2 Zufällige Ereignisse
Einleitung
1.3 Ereignisfeld
Ereignisse
Ereignisfeld
1.4 Kolmogorov’sches Axiomensystem
Axiomensystem
Folgerungen
1.5 Folgerungen aus dem Kolmogorov-
Klass. Definition
2. Kombinatorik
Axiomensystem
3. Bedingte Wkt
1.6 Die klassische Definition der
4. Klass. Wkt.
Wahrscheinlichkeit
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
62 / 895
1.6 Die klassische Definition der
Wahrscheinlichkeit
Stochastik für
InformatikerInnen
Wolfgang Kössler
Wir betrachten für ein zufälliges Experiment die
1. Grundbegriffe
Einleitung
Ereignisse
Ereignisfeld
Menge der Elementarereignisse Ω = {ω1 , . . . , ωN }.
Sei E = P(Ω) und P({ωi }) =
1
, ∀i
N
= 1, . . . , N).
Axiomensystem
Folgerungen
Klass. Definition
2. Kombinatorik
3. Bedingte Wkt
#{ω : ω ∈ A}
= n(A)
N
N
# der für A günstigen Elem.Ereignisse
=
# der möglichen Elementarereignisse
P(A) =
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
63 / 895
D E M ÉR É (1)
Stochastik für
InformatikerInnen
Wolfgang Kössler
Würfeln mit 3 Würfeln
Folgende Ereignisse werden betrachtet:
1. Grundbegriffe
Einleitung
Ereignisse
Ereignisfeld
A = Es fallen 11 Augen.
B = Es fallen 12 Augen.
Axiomensystem
Folgerungen
Klass. Definition
2. Kombinatorik
Frage: P(A), P(B)?
Die Menge der Elementarereignisse ist
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
Ω = {(i, j, k) : 1 ≤ i, j, k ≤ 6}.
Anzahl der Elementarereignisse N := 63 = 216,
P((i, j, k)) =
1
.
216
64 / 895
D E M ÉR É (2)
Anzahl der Ereignisse
Stochastik für
A (11 Augen)
B (12 Augen)
6-4-1
6
6-5-1
6
6-3-2
6
6-4-2
6
5-5-1
3
6-3-3
3
5-4-2
6
5-5-2
3
2. Kombinatorik
5-3-3
3
5-4-3
6
3. Bedingte Wkt
4-4-3
3
4-4-4
1
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Einleitung
Ereignisse
Ereignisfeld
Axiomensystem
Folgerungen
Klass. Definition
4. Klass. Wkt.
n(A)=27
n(B)=25
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
P(A) =
27
25
>
= P(B).
216
216
65 / 895
Inhalt
Stochastik für
InformatikerInnen
Wolfgang Kössler
2.1 Klassische kombinatorische Probleme
1. Grundbegriffe
2. Kombinatorik
Problemstellungen
2.2 Beispiele
2.3 Arithmetische Beziehungen zwischen den
Beispiele
Binomialkoeffizienten
Binomialkoeffizienten
Stirling-Formel
3. Bedingte Wkt
2.4 Die Stirling Formel
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
66 / 895
2.1 Klassische kombinatorische
Probleme, Aufgabenstellung
Stochastik für
InformatikerInnen
Anzahl der verschiedenen Zusammenstellungen von
Wolfgang Kössler
Objekten. Je nach Art der zusätzlichen Forderungen,
1. Grundbegriffe
ist zu unterscheiden, welche Zusammenstellungen
2. Kombinatorik
als gleich, und welche als verschieden angesehen
Problemstellungen
Beispiele
werden.
Binomialkoeffizienten
Stirling-Formel
3. Bedingte Wkt
4. Klass. Wkt.
Permutation (ohne Wiederholung)
Permutation mit Wiederholung
Variation ohne Wiederholung
5. Zufallsvariablen
6. Diskrete ZV
Variation mit Wiederholung
7. Charakteristika
Kombination (ohne Wiederholung)
8. Exponential
Kombination mit Wiederholung
67 / 895
Klassische kombinatorische Probleme
(1)
Wolfgang Kössler
Permutation (ohne Wiederholung)
Jede eineindeutige Abbildung Π der geordenten
1. Grundbegriffe
Menge {1, . . . , n} auf eine n-elementige Menge
2. Kombinatorik
M = {s1 , . . . , sn } heißt Permutation oder Permutation
Stochastik für
InformatikerInnen
Problemstellungen
Beispiele
Binomialkoeffizienten
Stirling-Formel
3. Bedingte Wkt
ohne Wiederholung,
∀i ∈ {1, . . . , n} : Π(i) = si , si ∈ M, si 6= sj (i 6= j)
Anzahl:
N = n!
4. Klass. Wkt.
5. Zufallsvariablen
Wiewiel Möglichkeiten gibt es, die Eisenbahnwagen
6. Diskrete ZV
32,33,34,35,36,37 hintereinander zu hängen?
7. Charakteristika
8. Exponential
N = 6!
68 / 895
Klassische kombinatorische Probleme
(2)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
Permutation mit Wiederholung
Sei M = {s1 , . . . , sk }, ki > 0 ∀i = 1, . . . , k mit
Pk
i=1 ki = n. Jedes geordnete n-Tupel von
Elementen aus M, wobei jedes Element si genau ki
Problemstellungen
Beispiele
mal vorkommt, heißt Permutation mit Wiederholung.
Binomialkoeffizienten
Stirling-Formel
3. Bedingte Wkt
N=
Anzahl:
n!
k1 !···kk !
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
Wiewiel Möglichkeiten gibt es, die Karten beim
Skatspiel zu vergeben?
N=
32!
10!10!10!2!
69 / 895
Klassische kombinatorische Probleme
(3)
Stochastik für
InformatikerInnen
Variation ohne Wiederholung
Wolfgang Kössler
Sei M = {s1 , . . . , sn }. Jedes geordnete k-Tupel,
1. Grundbegriffe
k ≤ n von verschiedenen Elementen aus M heißt
2. Kombinatorik
Variation ohne Wiederholung.
Problemstellungen
Beispiele
Binomialkoeffizienten
Anzahl:
N = n(n − 1) · · · (n − k + 1)
Stirling-Formel
3. Bedingte Wkt
Aufteilung von k Elementen auf n Fächer.
4. Klass. Wkt.
5. Zufallsvariablen
Wieviele Möglichkeiten für die drei Erstplazierten im
6. Diskrete ZV
100m Endlauf gibt es?
7. Charakteristika
8. Exponential
N = 8 · 7 · 6 = 336.
70 / 895
Klassische kombinatorische Probleme
(4)
Stochastik für
InformatikerInnen
Wolfgang Kössler
Variation mit Wiederholung
Auswahl von k Elementen aus einer Menge
1. Grundbegriffe
M = {s1 , . . . , sn } mit Zurücklegen. Die Frage ist:
2. Kombinatorik
Wieviel verschiedene Möglichkeiten gibt es, k
Problemstellungen
Beispiele
Elemente aus dieser Menge zu entnehmen, wobei
Binomialkoeffizienten
Stirling-Formel
Elemente mehrfach entnommen werden können?
3. Bedingte Wkt
4. Klass. Wkt.
N = nk .
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
Anzahl der 10stelligen Dualzahlen:
N = 210 .
71 / 895
Klassische kombinatorische Probleme
(5)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Kombinationen (ohne Wiederholung)
Jede k-elementige Teilmenge aus einer
n-elementigen Menge M heißt Kombination (ohne
2. Kombinatorik
Problemstellungen
Beispiele
Binomialkoeffizienten
Stirling-Formel
Wiederholung) (von k aus n Elementen). Dabei sind
Wiederholungen nicht erlaubt und die Reihenfolge
der k Elemente wird nicht berücksichtigt.
3. Bedingte Wkt
4. Klass. Wkt.
N=
n·(n−1)·...·(n−k +1)
k!
=
n
k
=
n!
.
(n−k )!k!
5. Zufallsvariablen
6. Diskrete ZV
Anzahl der 5er im Lotto: ÜA
7. Charakteristika
8. Exponential
72 / 895
Klassische kombinatorische Probleme
(6)
Stochastik für
InformatikerInnen
Wolfgang Kössler
Kombination (mit Wiederholung)
Faßt man alle Variationen mit Wiederholung (n
1. Grundbegriffe
Elemente, Ordnung k) zu Äquivalenzklassen
2. Kombinatorik
zusammen, so daß sie aus aus den gleichen
Problemstellungen
Beispiele
Elementen der gleichen Anzahl bestehen, so heißt
Binomialkoeffizienten
Stirling-Formel
jede solche Klasse Kombination mit Wiederholung.
3. Bedingte Wkt
4. Klass. Wkt.
N=
n+k−1
k
5. Zufallsvariablen
7. Charakteristika
n = 2, k = 3: 4 Klassen:
{aaa}, {aab, aba, baa}, {abb, bab, bba}, {bbb}
8. Exponential
werden jeweils zu einer Klasse zusammengefaßt.
6. Diskrete ZV
73 / 895
Klassische kombinatorische Probleme
(6a)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
Problemstellungen
Beispiele
Binomialkoeffizienten
Stirling-Formel
3. Bedingte Wkt
Erläuterung zur Kombination mit Wiederholung:
siehe Beispiele 4, 5 und 6.
(Dieses Problem wird auf den Fall unterscheidbarer
Würfel zurückgeführt.)
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
74 / 895
Klassische kombinatorische Probleme
(7)
Stochastik für
InformatikerInnen
Kombination von Elementen aus mehreren Mengen
Wolfgang Kössler
Wir betrachten beliebige Mengen S1 , . . . , Sk , wobei
1. Grundbegriffe
2. Kombinatorik
Problemstellungen
Beispiele
Binomialkoeffizienten
Stirling-Formel
Si = {si1 , . . . , sini } (i = 1, . . . , k) gilt.
Wieviel verschiedene Kombinationen von je einem
Element der Mengen S1 , . . . , Sk können gebildet
werden?
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
Solche Kombinationen haben die Form
(s1i1 , . . . , skik ), wobei skik ∈ Sk gilt für alle i = 1, . . . , k.
6. Diskrete ZV
7. Charakteristika
8. Exponential
Anzahl:
N = n1 · n2 · . . . · nk .
75 / 895
Inhalt
Stochastik für
InformatikerInnen
Wolfgang Kössler
2.1 Klassische kombinatorische Probleme
1. Grundbegriffe
2. Kombinatorik
Problemstellungen
2.2 Beispiele
2.3 Arithmetische Beziehungen zwischen den
Beispiele
Binomialkoeffizienten
Binomialkoeffizienten
Stirling-Formel
3. Bedingte Wkt
2.4 Die Stirling Formel
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
76 / 895
Beispiele (1)
Stochastik für
InformatikerInnen
Eine Gruppe von r Studenten verreist in einem Zug
Wolfgang Kössler
Die Studenten verteilen sich zufällig auf n ≥ r
1. Grundbegriffe
Abteile. Es sei A das Ereignis, daß alle Studenten in
2. Kombinatorik
verschiedenen Abteilen sitzen.
Problemstellungen
Beispiele
Binomialkoeffizienten
Stirling-Formel
3. Bedingte Wkt
4. Klass. Wkt.
n(A)
.
N
N = nr = #Möglichkeiten für die Verteilung der
P(A) =
r Studenten auf die n Abteile
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
n(A) = n · (n − 1) · . . . · (n − r + 1)
n(A)
n · (n − 1) · . . . · (n − r + 1)
P(A) =
=
.
N
nr
77 / 895
Beispiele (2)
Stochastik für
InformatikerInnen
Ziehen von Kugeln
Wolfgang Kössler
In einer Urne sollen sich n Kugeln befinden. Von
1. Grundbegriffe
2. Kombinatorik
Problemstellungen
diesen seien n1 schwarz, n − n1 dagegen weiß. Nun
werden k Kugeln (zufällig) entnommen, und zwar
Beispiele
Binomialkoeffizienten
ohne Zurücklegen.
Stirling-Formel
3. Bedingte Wkt
A: “von diesen k Kugeln genau k1 schwarz”
4. Klass. Wkt.
P(A) =
5. Zufallsvariablen
n(A)
.
N
6. Diskrete ZV
7. Charakteristika
8. Exponential
N=
n
k
=# Möglichkeiten, k Kugeln aus n Kugeln
auszuwählen.
78 / 895
Beispiele (2a)
Stochastik für
InformatikerInnen
Ziehen von Kugeln (Fortsetzung)
Wolfgang Kössler
n(A)= Anzahl der Möglichkeiten zur Entnahme von k
1. Grundbegriffe
Kugeln, bei denen genau k1 schwarze Kugeln
2. Kombinatorik
ausgewählt werden.
Problemstellungen
Beispiele
Binomialkoeffizienten
Stirling-Formel
In einem solchen Fall sind dann auch genau k − k1
weiße Kugeln entnommen worden. Also
3. Bedingte Wkt
1
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
Die Anzahl der Möglichkeiten, aus n1 schwarzen
Kugeln k1 schwarze auszuwählen (ohne
Wiederholung und ohne Berücksichtigung der
Reihenfolge) ist nk11 .
79 / 895
Beispiele (2b)
Stochastik für
InformatikerInnen
Wolfgang Kössler
Ziehen von Kugeln (Fortsetzung)
1
Die Anzahl der Möglichkeiten, aus n − n1
1. Grundbegriffe
weißen Kugeln k − k1 weiße auszuwählen
2. Kombinatorik
(ebenfalls ohne Wiederholung und ohne
Problemstellungen
Beispiele
Berücksichtigung der Reihenfolge) ist
Binomialkoeffizienten
n−n1
k−k1
.
Stirling-Formel
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
n1
n − n1
#günstige Ereignisse = n(A) =
·
k1
k −k
n−n1 1
n1
· k −k
n(A)
k
P(A) =
= 1 n 1
N
k
7. Charakteristika
8. Exponential
Hypergeometrische Wahrscheinlichkeit.
80 / 895
Beispiele (3)
Stochastik für
InformatikerInnen
Wolfgang Kössler
Lotto 6 aus 49
Wenn wir uns die Zahlen als Kugeln denken, die aus
1. Grundbegriffe
einer Urne entnommen werden, und außerdem
2. Kombinatorik
gezogene Zahlen im nachhinein als schwarze
Problemstellungen
Beispiele
Kugeln ansehen, so kann jeder Tip durch die
Binomialkoeffizienten
Stirling-Formel
3. Bedingte Wkt
Entnahme von 6 Kugeln verkörpert werden. A:
Ereignis , daß vier Richtige getippt werden.
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
n = 49,
n1 = 6,
k = 6,
k1 = 4,
49−6
6
·
P(A) = 4 496−4
6
81 / 895
Beispiele (4)
Stochastik für
InformatikerInnen
1. Grundbegriffe
Zwei nicht unterscheidbare Würfel
Wie groß ist die Anzahl der Würfe mit 2 nicht zu
2. Kombinatorik
unterscheidenden Würfeln?
Wolfgang Kössler
Problemstellungen
Beispiele
Seien i, j die Augenzahlen und o.B.d.A. i ≤ j.
Binomialkoeffizienten
Stirling-Formel
Wir vergeben die Tupel (i, j), wenn i 6= j.
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
Wir vergeben die Tupel (i, 7), wenn i = j.
Die gesuchte Anzahl ist die Anzahl der möglichen
Auswahlen aus der Menge {1, . . . , 7}, d.h.
7
2
.
7. Charakteristika
8. Exponential
82 / 895
Beispiele (5)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
Problemstellungen
Beispiele
Binomialkoeffizienten
Stirling-Formel
3. Bedingte Wkt
Wie groß ist die Anzahl der Würfe mit 3
nicht zu unterscheidenden Würfeln?
Seien i, j, k die Augenzahlen und o.B.d.A. i ≤ j ≤ k.
Wir vergeben die Tripel
(i, j, k), wenn i < j < k.
(i, k, 7), wenn i = j < k.
(i, j, 8), wenn i < j = k.
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
(i, 7, 8), wenn i = j = k.
Die gesuchte Anzahl ist die Anzahl der möglichen
Auswahlen aus der Menge {1, . . . , 8}, d.h.
8
3
.
83 / 895
Beispiele (6)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
Verteilen von n Geldstücken an k Studenten (k ≤ n)
Auf wieviele Weisen ist das möglich?
Problemstellungen
Beispiele
Binomialkoeffizienten
Stirling-Formel
3. Bedingte Wkt
4. Klass. Wkt.
a) jeder Student bekommt mindestens ein Stück.
Geldstücke nebeneinander legen und k − 1
Trennstriche verteilen unter n − 1 möglichen
N = kn−1
−1
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
84 / 895
Beispiele (6a)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
Verteilen von n Geldstücken
b) es wird zugelassen, dass Studenten nichts
erhalten.
Problemstellungen
Beispiele
Trick: Borgen von k Stücken −→ n + k Stück
Binomialkoeffizienten
Stirling-Formel
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
k − 1 Trennstriche verteilen unter den jetzt
n + k − 1 möglichen
N = n+k−1
k −1
Dann gibt jeder Student genau ein Stück zurück.
7. Charakteristika
8. Exponential
85 / 895
Beispiele (6b)
Stochastik für
InformatikerInnen
Wolfgang Kössler
ein weiterer Zugang:
1. Grundbegriffe
2. Kombinatorik
Problemstellungen
Verteilen von n Geldstücken an k Studenten
Wir basteln einen Würfel mit k Flächen und würfeln n
Beispiele
Binomialkoeffizienten
mal.
Stirling-Formel
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
Beim i-ten Wurf bekommt der Student das
Geldstück, dessen Nummer gewürfelt wurde.
−1
N = n+k
k −1
6. Diskrete ZV
7. Charakteristika
8. Exponential
86 / 895
Beispiele (7)
Stochastik für
InformatikerInnen
Wolfgang Kössler
Hashing
Beobachtungen (oder Daten) abspeichern auf einem
1. Grundbegriffe
Feld.
2. Kombinatorik
k: Anzahl der Beobachtungen
Problemstellungen
Beispiele
Binomialkoeffizienten
Stirling-Formel
3. Bedingte Wkt
4. Klass. Wkt.
n: Feldlänge (k ≤ n)
Das Abspeichern geschieht mit Hilfe von
Hashfunktionen (oder Hashtafeln).
zufällige Daten: Kollisionen können auftreten.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
Ak ,n : Ereignis, daß Kollisionen auftreten. ges.:
P(Ak ,n )
87 / 895
Beispiele (7a)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Hashing (Fortsetzung)
k−1
i
n(n − 1) · · · (n − k + 1) Y
=
(1 − )
P(Ak ,n ) =
k
n
n
i=0
2. Kombinatorik
Problemstellungen
Beispiele
Binomialkoeffizienten
Stirling-Formel
3. Bedingte Wkt
4. Klass. Wkt.
= exp
k −1
X
i=0
k−1
X
i
)
≤ exp(−
n
i=0
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
i ln(1 − )
n
= exp(−
(k − 1)k
k2
) ≈ exp(− )
2n
2n
ln(1 − x) < −x für x < 1
88 / 895
Beispiele (8)
Stochastik für
InformatikerInnen
Suche von Elementen. Sei n = |Ω|
Wolfgang Kössler
Greifen zufällig eine k -elementige Teilmenge A ⊆ Ω
1. Grundbegriffe
heraus.
2. Kombinatorik
ω1 , ...: Schlüsselelemente (vorgegeben), ω1 , ... ∈ Ω
Problemstellungen
Beispiele
Binomialkoeffizienten
Stirling-Formel
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
Frage: Mit welcher Wkt. ω1 ∈ A?
n−1
P(A) =
k −1
n
k
=
k
n
Frage: Mit welcher Wkt. ω1 , . . . , ωr ∈ A?
n−r
k(k − 1) · · · (k − r + 1)
k−r
P(A) = n =
n(n − 1) · · · (n − r + 1)
k
89 / 895
Beispiele (8a)
Stochastik für
InformatikerInnen
Suche von Elementen (Fortsetzung)
Wolfgang Kössler
Sei r fest,
1. Grundbegriffe
≈
2. Kombinatorik
P(A) ≥
Problemstellungen
Beispiele
Binomialkoeffizienten
Stirling-Formel
k
n
→ p: P(A) ∼ pr
1
,
2
falls pr ≥
1
2
falls k ≥
Soll also die Wkt., daß alle r Schlüsselelemente in
3. Bedingte Wkt
der Teilmenge enthalten sind, größer als
4. Klass. Wkt.
muß
5. Zufallsvariablen
k≥
6. Diskrete ZV
7. Charakteristika
8. Exponential
n
21/r
1
2
sein, so
n
21/r
gewählt werden.
90 / 895
Kombinatorik
Zusammenfassung
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
n: # Elemente = |Ω|
k: # auszuwählende Elemente
k1 , . . . , km : Häufigkeit der einzelnen Elemente
Problemstellungen
Beispiele
Binomialkoeffizienten
Stirling-Formel
ohne Wiederholung
mit Wiederhol.
n!
n!
k1 !···km !
n(n − 1) · · · (n − k + 1)
nk
n
k
n+k −1
k
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
Permutationen
Variationen
Kombinationen
91 / 895
Inhalt
Stochastik für
InformatikerInnen
Wolfgang Kössler
2.1 Klassische kombinatorische Probleme
1. Grundbegriffe
2. Kombinatorik
Problemstellungen
2.2 Beispiele
2.3 Arithmetische Beziehungen zwischen den
Beispiele
Binomialkoeffizienten
Binomialkoeffizienten
Stirling-Formel
3. Bedingte Wkt
2.4 Die Stirling Formel
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
92 / 895
2.3 Arithmetische Beziehungen
zwischen den Binomialkoeffizienten
Stochastik für
InformatikerInnen
(1)
1.
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
2.
Problemstellungen
Beispiele
n
n
=
k
n−k
n
n−1
n−1
=
+
k
k
k −1
Binomialkoeffizienten
Stirling-Formel
3.
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
n X
n
k=0
4.
n
X
k =0
k
= 2n
n
(−1)
=0
k
k
93 / 895
Arithmetische Beziehungen zwischen
den Binomialkoeffizienten (2)
Stochastik für
InformatikerInnen
Wolfgang Kössler
5.
n 2
X
n
1. Grundbegriffe
2. Kombinatorik
k =0
k
=
2n
n
Problemstellungen
Beispiele
6.
Binomialkoeffizienten
Stirling-Formel
i=0
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
n X
m
n
n+m
=
k −i
k
i
7.
n
X
n
= n · 2n−1
k
k
k =1
7. Charakteristika
8. Exponential
94 / 895
Arithmetische Beziehungen zwischen
den Binomialkoeffizienten (3)
Stochastik für
InformatikerInnen
Wolfgang Kössler
8. Definieren die Folge
b n+1
c
2
1. Grundbegriffe
Sn =
2. Kombinatorik
X
k =0
Problemstellungen
n−k
k
Beispiele
Binomialkoeffizienten
Stirling-Formel
Zeigen Sie: Sn+1 = Sn + Sn−1 .
3. Bedingte Wkt
Beweis:
4. Klass. Wkt.
vollständige Induktion
5. Zufallsvariablen
3 Methoden,
algebraisch
6. Diskrete ZV
7. Charakteristika
8. Exponential
kombinatorisch
teilweise Übungsaufgabe, teilweise Übung
2
95 / 895
Inhalt
Stochastik für
InformatikerInnen
Wolfgang Kössler
2.1 Klassische kombinatorische Probleme
1. Grundbegriffe
2. Kombinatorik
Problemstellungen
2.2 Beispiele
2.3 Arithmetische Beziehungen zwischen den
Beispiele
Binomialkoeffizienten
Binomialkoeffizienten
Stirling-Formel
3. Bedingte Wkt
2.4 Die Stirling Formel
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
96 / 895
2.4 Die Stirling Formel
Stochastik für
InformatikerInnen
Satz: Es gilt
Wolfgang Kössler
1. Grundbegriffe
n! ∼
√
n
n
2πn
.
e
2. Kombinatorik
Problemstellungen
Beispiele
Binomialkoeffizienten
Stirling-Formel
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
Beweis: Die Aussage des Satzes ist äquivalent zu
√
1
ln n! ∼ ln 2π + (n + ) ln n − n.
2
Sei
1
dn := ln n! − (n + ) ln n + n.
2
Es genügt zu zeigen,
√
lim dn = ln 2π.
n→∞
8. Exponential
97 / 895
Beweis der Stirling-Formel (2)
Stochastik für
InformatikerInnen
Wir schätzen die Differenz dn − dn+1 ab, dann das
Wolfgang Kössler
Verhalten der Folge {dn } und versuchen den
1. Grundbegriffe
Grenzwert zu bestimmen. Die Differenz dn − dn+1 ist
= ln n! − ln(n + 1)!
1
1
−(n + ) ln n + (n + 1 + ) ln(n + 1) + n − (n + 1)
2
2
n!
= ln (n+1)!
+ (n + 12 )(ln(n + 1) − ln n) + ln(n + 1) − 1
1
n+1
= − ln(n + 1) + (n + ) ln
+ ln(n + 1) − 1
2
n
2n + 1 n + 1
=
ln
−1
2
n
1
1 1 + 2n+1
= (2n + 1) · ln
− 1.
1
2 1 − 2n+1
2. Kombinatorik
Problemstellungen
Beispiele
Binomialkoeffizienten
Stirling-Formel
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
98 / 895
Beweis der Stirling-Formel (3)
Stochastik für
InformatikerInnen
Wolfgang Kössler
Es gilt für −1 < x < 1:
1. Grundbegriffe
2. Kombinatorik
ln(1 + x) =
Problemstellungen
Beispiele
Binomialkoeffizienten
Stirling-Formel
ln(1 − x) =
5. Zufallsvariablen
i=1
∞
X
i=1
3. Bedingte Wkt
4. Klass. Wkt.
∞
X
ln
1+x
1−x
(−1)i+1
xi
i
(−1)i+1
(−x)i
i
= ln(1 + x) − ln(1 − x) = 2
∞
X
x 2i+1
2i + 1
i=0
6. Diskrete ZV
7. Charakteristika
8. Exponential
99 / 895
Beweis der Stirling-Formel (4)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
dn − dn+1
1
2n+1
und erhalten (x 6= 0)
∞
X
1
1 1
2i+1
· ·2 x +
x
−1
=
x 2
2i + 1
Setzen x :=
i=1
2. Kombinatorik
Problemstellungen
Beispiele
=
Binomialkoeffizienten
i=1
Stirling-Formel
3. Bedingte Wkt
<
6. Diskrete ZV
7. Charakteristika
8. Exponential
1
1
2i + 1 (2n + 1)2i
∞
X
1
i=1
4. Klass. Wkt.
5. Zufallsvariablen
∞
X
1
3 (2n + 1)2i
1
1
1
− 1 wobei q =
3 1−q
(2n + 1)2
1
=
3((2n + 1)2 − 1)
=
100 / 895
Beweis der Stirling-Formel (5)
Stochastik für
InformatikerInnen
Wolfgang Kössler
Offenbar gilt auch
1. Grundbegriffe
2. Kombinatorik
Problemstellungen
Beispiele
1
X 1
1
1
=
·
< dn − dn+1 ,
2
3(2n + 1)
2i + 1 (2n + 1)2i
i=1
Binomialkoeffizienten
Stirling-Formel
also
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
1
1
< dn − dn+1 <
.
2
3(2n + 1)
3((2n + 1)2 − 1)
6. Diskrete ZV
7. Charakteristika
8. Exponential
101 / 895
Beweis der Stirling-Formel (6)
Abschätzung der Schranken
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
Problemstellungen
Beispiele
Binomialkoeffizienten
Stirling-Formel
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
1
1
1
1
=
=
−
3((2n + 1)2 −1)
12n(n + 1)
12n 12(n + 1)
1
12
1
=
=
3(2n + 1)2
12n(n + 1) + 3
12(12n(n + 1) +
12
=
12 · 12n(n + 1) + 36
12
>
2
12 · 12n + 12 · 12n + 24n + 13
12
=
12 · 12n2 + 12 · 14n + 13
12
=
(12n + 1)(12n + 13)
1
1
=
−
12n + 1 12(n + 1) + 1
102 / 895
Beweis der Stirling-Formel (7)
Stochastik für
InformatikerInnen
Beide Ungleichungen zusammen
Wolfgang Kössler
1. Grundbegriffe
1
1
1
1
−
< dn −dn+1 <
−
12n + 1 12(n + 1) + 1
12n 12(n + 1)
2. Kombinatorik
Problemstellungen
Beispiele
Binomialkoeffizienten
Stirling-Formel
3. Bedingte Wkt
4. Klass. Wkt.
(dn −
1
1
) − (dn+1 −
)<0<
12n
12(n + 1)
1
1
) − (dn+1 −
)
(dn −
12n + 1
12(n + 1) + 1
5. Zufallsvariablen
6. Diskrete ZV
Folge {dn −
7. Charakteristika
Folge {dn −
8. Exponential
1
} ist monoton fallend
12n+1
1
} ist monoton wachsend.
12n
103 / 895
Beweis der Stirling-Formel (8)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
Problemstellungen
Beispiele
Binomialkoeffizienten
Stirling-Formel
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
Beide Folgen haben denselben Grenzwert
c := lim dn ,
1
1
< c < dn −
12n
12n + 1
1
1
c+
< dn < c +
12n + 1
12n
dn −
Erinnerung:
1
dn = ln n! − (n + ) ln n + n
2
1
n
−n
n− 2
⇒ edn = n!
e
104 / 895
Beweis der Stirling-Formel (9)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
1
2. Kombinatorik
Problemstellungen
Beispiele
Binomialkoeffizienten
Stirling-Formel
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
ec+ 12n+1
1
ec e 12n+1
√ n n 1
ec n
e 12n+1
e
1
ec+ 12n
< edn <
−n − 1
1
< n! en
n 2 < ec e 12n
√ n n 1
< n! <
ec n
e 12n
e
Bleibt zu zeigen
ec =
√
2π.
6. Diskrete ZV
7. Charakteristika
8. Exponential
105 / 895
Beweis der Stirling-Formel (10)
Hilfsrechnungen
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Z
0
Z
In
Problemstellungen
Beispiele
Binomialkoeffizienten
Stirling-Formel
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
π/2
sinn−1 x · sin x dx
0
π/2
= sinn−1 x · (− cos x)0 −
Z π/2
(n − 1) sinn−2 x cos x · (− cos x) dx
0
Z π/2
= (n − 1)
sinn−2 x(1 − sin2 x) dx
=
0
6. Diskrete ZV
8. Exponential
sinn x dx
In :=
2. Kombinatorik
7. Charakteristika
π/2
In
= (n − 1)(In−2 − In )
n−1
=
In−2
n
106 / 895
Beweis der Stirling-Formel (11)
Hilfsrechnungen (Fortsetzung, 1)
Stochastik für
InformatikerInnen
Wolfgang Kössler
I1 = 1
I2
I3 =
1. Grundbegriffe
2. Kombinatorik
Problemstellungen
π
2
1
1 π
=
I0 = ·
2
2 2
I0 =
2
2
I1 =
3
3
Beispiele
Binomialkoeffizienten
Stirling-Formel
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
1 · 3 · 5 · · · (2n − 1) π
2 · 4 · 6 · · · (2n) 2
2 · 4 · 6 · · · (2n)
=
3 · 5 · 7 · · · (2n + 1)
I2n =
I2n+1
6. Diskrete ZV
7. Charakteristika
8. Exponential
107 / 895
Beweis der Stirling-Formel (12)
Hilfsrechnungen (Fortsetzung, 2)
Stochastik für
InformatikerInnen
0<x <
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
π
2
⇒
0 < sin x < 1
⇒
sin2n−1 x > sin2n x > sin2n+1 x
⇒
I2n−1 > I2n > I2n+1
Problemstellungen
Beispiele
Binomialkoeffizienten
Stirling-Formel
3. Bedingte Wkt
⇒
⇒
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
⇒
⇒
I2n−1
I2n
> I2n+1
>1
I2n+1
2n+1
> 1·3·3·5·5·7···(2n−1)·(2n+1)
· π2 >
2n
2·2·4·4·6·6···(2n)·(2n)
lim 1·3·3·5·5·7···(2n−1)·(2n+1)
· π2 = 1
2·2·4·4·6·6···(2n)·(2n)
2
2·4·6···(2n)
π
1
· 2n+1
= lim 1·3·5···(2n−1)
2
4n
1
4
2 (n!)
= lim ((2n)!)
2 (2n+1)
108 / 895
Beweis der Stirling-Formel (13)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
Problemstellungen
Beispiele
√
n! = ec nnn e−n eαn
√
(2n)! = ec 2n22n n2n e−2n eβn
Binomialkoeffizienten
Stirling-Formel
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
wobei limn→∞ αn = limn→∞ βn = 0.
Einsetzen oben liefert
ec =
√
2π.
6. Diskrete ZV
7. Charakteristika
8. Exponential
109 / 895
Inhalt
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
Einführung
Totale Wkt
Satz von Bayes
Anwendungen
3.1 Einführung
3.2 Satz der Totalen Wahrscheinlichkeit
3.3 Satz von Bayes
3.4 Anwendung bedingter
Wahrscheinlichkeiten
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
110 / 895
3. Bedingte Wahrscheinlichkeit
3.1 Einführung
Stochastik für
InformatikerInnen
Wolfgang Kössler
3-maliges Werfen einer Münze
Menge der Elementarereignisse:
1. Grundbegriffe
Ω = {zzz, zzw, zwz, wzz, zww, wzw, wwz, www}.
2. Kombinatorik
|Ω| = 23 = 8 = N Wir definieren zwei Ereignisse:
3. Bedingte Wkt
Einführung
Totale Wkt
Satz von Bayes
Anwendungen
4. Klass. Wkt.
A: Das Wappen fällt genau einmal, d.h.
n(A)
3
A = {zzw, zwz, wzz}.
P(A) =
= .
N
8
B: # Wappenwürfe ungerade,d.h.:
5. Zufallsvariablen
6. Diskrete ZV
B = {zzw, zwz, wzz, www}. P(B) =
4
n(B)
=
N
8
7. Charakteristika
8. Exponential
Offenbar A ⊂ B.
111 / 895
3-maliges Werfen einer Münze
(Fortsetz.)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
Einführung
Totale Wkt
Satz von Bayes
Anwendungen
Angenommen, Ereignis B sei bereits eingetreten.
Wahrscheinlichkeit, daß unter dieser Bedingung das
Ereignis A eintritt?
Bei diesem Experiment ist die Menge der
Elementarereignisse die Menge B. Damit gilt N = 4.
Folglich erhalten wir:
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
P(A, falls B bereits eingetreten ist) = P(A/B) =
3
.
4
7. Charakteristika
8. Exponential
112 / 895
Bedingte Wahrscheinlichkeit
Einführung (2)
Stochastik für
InformatikerInnen
Def. 10 (Bedingte Wahrscheinlichkeit)
Wolfgang Kössler
1. Grundbegriffe
Es seien A, B ∈ E zwei zufällige Ereignisse und es
2. Kombinatorik
gelte P(B) > 0. Dann wird
3. Bedingte Wkt
Einführung
P(A/B) =
Totale Wkt
Satz von Bayes
Anwendungen
4. Klass. Wkt.
P(A ∩ B)
.
P(B)
als bedingte Wahrscheinlichkeit von A unter der
Bedingung B bezeichnet.
5. Zufallsvariablen
6. Diskrete ZV
Bem.: Oft wird auch die folgende Bezeichnung
7. Charakteristika
verwendet: PB (A) := P(A/B).
8. Exponential
113 / 895
Bedingte Wahrscheinlichkeit
Einführung (3)
Stochastik für
InformatikerInnen
Wolfgang Kössler
Bem.: Wir unterscheiden folgende Fälle:
1
1. Grundbegriffe
A ⊇ B: Dann gilt:
2. Kombinatorik
P(A/B) =
3. Bedingte Wkt
Einführung
2
A ⊆ B:
P(A ∩ B)
P(B)
=
=1
P(B)
P(B)
Dann gilt:
Totale Wkt
Satz von Bayes
P(A/B) =
Anwendungen
4. Klass. Wkt.
P(A)
P(A ∩ B)
=
P(B)
P(B)
5. Zufallsvariablen
A ∩ B 6= ∅ (teilweise Überschneidung):
6. Diskrete ZV
Dann gilt:
3
7. Charakteristika
8. Exponential
P(A/B) =
P(A ∩ B)
P(B)
114 / 895
Unabhängigkeit
Definition
Stochastik für
InformatikerInnen
1. Grundbegriffe
Def. 11 (Unabhängigkeit)
Zwei Ereignisse A, B ∈ E heißen
2. Kombinatorik
unabhängig, wenn gilt:
Wolfgang Kössler
3. Bedingte Wkt
Einführung
Totale Wkt
P(A/B) = P(A).
Satz von Bayes
Anwendungen
4. Klass. Wkt.
5. Zufallsvariablen
Bem.: Für zwei unabhängige Ereignisse gilt:
P(A ∩ B) = P(A) · P(B).
6. Diskrete ZV
7. Charakteristika
8. Exponential
115 / 895
Unabhängigkeit
Beispiel
Stochastik für
InformatikerInnen
Skatspiel mit 32 Karten
Wolfgang Kössler
Daraus wird eine Karte gezogen. (N = |Ω| = 32).
1. Grundbegriffe
Wir betrachten die zufälligen Ereignisse:
2. Kombinatorik
3. Bedingte Wkt
Einführung
Totale Wkt
Satz von Bayes
Anwendungen
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
A: Ziehen eines Königs.
n(A)
4
1
P(A) =
=
= .
N
32
8
B: Ziehen einer Herzkarte.
n(B)
8
1
P(B) =
=
= .
N
32
4
Sind diese beiden Ereignisse voneinander
unabhängig?
116 / 895
Unabhängigkeit
Beispiel (Fortsetzung)
Stochastik für
InformatikerInnen
Wolfgang Kössler
Skatspiel mit 32 Karten, Fortsetzung
Offenbar P(B) > 0. Es sei eine Herzkarte gezogen
1. Grundbegriffe
worden (Ereignis B also eingetreten).
2. Kombinatorik
3. Bedingte Wkt
Einführung
Wahrscheinlichkeit, daß dann der Herzkönig
gezogen wurde:
Totale Wkt
Satz von Bayes
Anwendungen
4. Klass. Wkt.
P(A ∩ B)
P(A/B) =
=
P(B)
1
32
1
4
=
1
= P(A).
8
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
Folglich sind nach Definition die Ereignisse A und B
voneinander unabhängig.
117 / 895
PB ist Wahrscheinlichkeit
Stochastik für
InformatikerInnen
Wolfgang Kössler
Satz:
Es seien A, B ∈ E zwei Ereignisse, wobei P(B) > 0
1. Grundbegriffe
gelte. Dann genügt die bedingte Wahrscheinlichkeit
2. Kombinatorik
PB den KOLMOGOROV–Axiomen. D.h. das Tripel
3. Bedingte Wkt
(Ω, E, PB ) ist ein Wahrscheinlichkeitsraum.
Einführung
Totale Wkt
Satz von Bayes
Beweis: Wir zeigen stellvertretend Axiom 2. Es gilt:
Anwendungen
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
PB (Ω) = P(Ω/B)
P(Ω ∩ B)
P(B)
=
=
=1
P(B)
P(B)
Die anderen beiden Axiome (vgl. Definition 7) sind
ebenfalls erfüllt.
2
118 / 895
Bedingte Wahrscheinlichkeit
Stochastik für
InformatikerInnen
Wolfgang Kössler
Satz
Es seien A, B, C ∈ E drei Ereignisse. Dann gilt:
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
Einführung
Totale Wkt
Satz von Bayes
Anwendungen
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
PB (A/C) = P(A/B ∩ C).
Beweis: Es gilt:
PB (A ∩ C)
PB (A/C) =
PB (C)
P(A ∩ C/B)
=
P(C/B)
P(A ∩ B ∩ C) · P(B)
=
P(B) · P(B ∩ C)
P(A ∩ B ∩ C)
=
= P(A/B ∩ C)
P(B ∩ C)
2
119 / 895
Unabhängigkeit
Fortsetzung (1)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
Einführung
Lemma
Es seien A, B ∈ E zwei unabhängige Ereignisse.
Dann sind die Ereignisse A und B ebenfalls
unabhängig. Gleiches gilt für die Ereignisse A und B
Totale Wkt
Satz von Bayes
sowie für A und B.
Anwendungen
4. Klass. Wkt.
Beweis: Wir zeigen die Aussage am Beispiel der
5. Zufallsvariablen
Ereignisse A und B. Es gilt:
6. Diskrete ZV
7. Charakteristika
8. Exponential
120 / 895
Unabhängigkeit
Fortsetzung (2)
Stochastik für
InformatikerInnen
Beweis des Lemma, Fortsetzung
Wolfgang Kössler
P(A/B) =
1. Grundbegriffe
2. Kombinatorik
=
3. Bedingte Wkt
Einführung
Totale Wkt
=
Satz von Bayes
Anwendungen
4. Klass. Wkt.
=
5. Zufallsvariablen
6. Diskrete ZV
=
P(A ∩ B)
P(B)
P(A \ (A ∩ B))
(Folgerung 2.1))
1 − P(B)
P(A) − P(A ∩ B)
(Folgerung 2.3b))
1 − P(B)
P(A) − P(A)P(B)
1 − P(B)
P(A)(1 − P(B))
= P(A)
1 − P(B)
7. Charakteristika
8. Exponential
Diese beiden Ereignisse sind folglich unabhängig. 121 / 895
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Beweis des Lemma, Fortsetzung
Zusammenfassend gilt
P(A/B) = P(A) ⇐⇒ P(A/B) = P(A)
2. Kombinatorik
3. Bedingte Wkt
Einführung
Totale Wkt
⇐⇒ P(A/B) = P(A)
⇐⇒ P(A/B) = P(A)
Satz von Bayes
Anwendungen
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
122 / 895
Inhalt
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
Einführung
Totale Wkt
Satz von Bayes
Anwendungen
3.1 Einführung
3.2 Satz der Totalen Wahrscheinlichkeit
3.3 Satz von Bayes
3.4 Anwendung bedingter
Wahrscheinlichkeiten
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
122 / 895
3.2 Satz der Totalen
Wahrscheinlichkeit
Stochastik für
InformatikerInnen
Def. 12 (Vollständigkeit)
Wolfgang Kössler
Es sei (Ω, E, P) ein Wahrscheinlichkeitsraum. Eine
1. Grundbegriffe
Folge von Ereignissen
2. Kombinatorik
{An }∞
n=1 (An ∈ E, ∀n ∈ N)
3. Bedingte Wkt
Einführung
Totale Wkt
Satz von Bayes
Anwendungen
4. Klass. Wkt.
5. Zufallsvariablen
heißt vollständig (oder ausschöpfend), falls folgende
Bedingungen erfüllt sind:
∞
S
1
An = Ω;
n=1
6. Diskrete ZV
7. Charakteristika
8. Exponential
2
Ai ∩ Aj = ∅, für alle i 6= j.
123 / 895
Satz der Totalen Wahrscheinlichkeit
Stochastik für
InformatikerInnen
1. Grundbegriffe
Satz
Es sei A1 , A2 , . . . eine vollständige Folge von
2. Kombinatorik
Ereignissen. Weiterhin sei B ein beliebiges Ereignis
3. Bedingte Wkt
und es gelte P(Ai ) 6= 0 für alle i . Dann gilt:
Wolfgang Kössler
Einführung
Totale Wkt
Satz von Bayes
Anwendungen
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
P(B) =
∞
X
P(B|Ai )P(Ai ).
i=1
Dieser Ausdruck heißt
Formel der totalen Wahrscheinlichkeit.
7. Charakteristika
8. Exponential
124 / 895
Satz der Totalen Wahrscheinlichkeit
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
S
S∞
Beweis: Aus B = B ∩ ( ∞
i=1 Ai ) =
i=1 (B ∩ Ai ) folgt
(da die (B ∩ Ai ) ebenfalls unvereinbar sind):
!
∞
[
P(B) = P
(B ∩ Ai )
i=1
Einführung
Totale Wkt
Satz von Bayes
Anwendungen
=
6. Diskrete ZV
7. Charakteristika
8. Exponential
P(B ∩ Ai )
i=1
4. Klass. Wkt.
5. Zufallsvariablen
∞
X
=
∞
X
P(B|Ai )P(Ai )
i=1
2
125 / 895
Satz der Totalen Wahrscheinlichkeit
Beispiel
Stochastik für
InformatikerInnen
Binärkanal
Wolfgang Kössler
Bei der Übertragung auf einem binären kanal
1. Grundbegriffe
kommen die Zeichen ‘0’ und ‘1’ im Verhältnis 3:4 vor.
2. Kombinatorik
Ein ‘0’ wird mit Wkt. von 0.2 fehlerhaft übertragen
3. Bedingte Wkt
Ein ‘1’ wird mit Wkt. von 0.3 fehlerhaft übertragen
Einführung
Totale Wkt
Satz von Bayes
ges.: Wkt. für eine fehlerhafte Übertragung?
Anwendungen
4. Klass. Wkt.
Wkt., dass ein ‘0’ empfangen wird?
5. Zufallsvariablen
Ereignisse:
6. Diskrete ZV
S0 : ‘0’ wird gesendet,
P(S0 ) =
7. Charakteristika
S1 : ‘1’ wird gesendet,
P(S1 ) =
8. Exponential
E0 : ‘0’ wird empfangen,
3
7
4
7
E1 : ‘1’ wird empfangen
126 / 895
Satz der Totalen Wahrscheinlichkeit
Beispiel
Stochastik für
InformatikerInnen
Binärkanal, Fortsetzung
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
P(E1 |S0 ) = 0.2,
P(E0 |S1 ) = 0.3
F : Ereignis, das ein Übertragungsfehler vorliegt
3. Bedingte Wkt
Einführung
Totale Wkt
P(F ) = P(E1 , S0 ) + P(E0 , S1 )
Satz von Bayes
Anwendungen
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
= P(E1 |S0 ) · P(S0 ) + P(E0 |S1 ) · P(S1 )
1 3
3 4
18
=
· +
· =
≈ 0.2571
5 7 10 7
70
P(E0 ) = P(E0 |S0 ) · P(S0 ) + P(E0 |S1 ) · P(S1 )
8 3
3 4
18
=
· +
· =
≈ 0.5143
10 7 10 7
35
127 / 895
Inhalt
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
Einführung
Totale Wkt
Satz von Bayes
Anwendungen
3.1 Einführung
3.2 Satz der Totalen Wahrscheinlichkeit
3.3 Satz von Bayes
3.4 Anwendung bedingter
Wahrscheinlichkeiten
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
128 / 895
3.3 Satz von Bayes
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Gegeben: P(Ai ) und P(A/Ai ), (i ∈ N).
2. Kombinatorik
3. Bedingte Wkt
Gesucht: P(Ai /A).
Einführung
Totale Wkt
Unter Benutzung der Definition der bedingte
Satz von Bayes
Anwendungen
4. Klass. Wkt.
Wahrscheinlichkeit und der Formel für die totale
Wahrscheinlichkeit erhalten wir:
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
129 / 895
Satz von Bayes
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
Einführung
P(Ai ∩ A)
P(A)
P(Ai ) · P(A/Ai )
=
P(A)
P(Ai /A) =
Totale Wkt
Satz von Bayes
Wenden die Formel der totalen Wkt an,
Anwendungen
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
Satz von B AYES, Formel von B AYES
P(Ai ) · P(A/Ai )
P(Ai /A) = P
∞
(P(A/Aj ) · P(Aj ))
j=1
130 / 895
Satz von Bayes
Beispiel
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
Einführung
Totale Wkt
Satz von Bayes
Anwendungen
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
Binärkanal, Fortsetzung
P(E0 |S0 )P(S0 )
P(E0 |S0 )P(S0 ) + P(E0 |S1 )P(S1 )
8
·3
2
24
10 7
=
= 8 3
=
3
4
24 + 12
3
· + 10 · 7
10 7
P(S0 |E0 ) =
P(E1 |S1 )P(S1 )
P(E1 |S0 )P(S0 ) + P(E1 |S1 )P(S1 )
7
·4
28
14
10 7
= 2 3
=
=
7
4
28 + 6
17
· + 10 · 7
10 7
P(S1 |E1 ) =
7. Charakteristika
8. Exponential
131 / 895
Inhalt
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
Einführung
Totale Wkt
Satz von Bayes
Anwendungen
3.1 Einführung
3.2 Satz der Totalen Wahrscheinlichkeit
3.3 Satz von Bayes
3.4 Anwendung bedingter
Wahrscheinlichkeiten
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
132 / 895
3.4 Anwendung bedingter Wktn.
Expertensystem
Stochastik für
InformatikerInnen
Wolfgang Kössler
Aufbau der Wissensbasis:
1. Grundbegriffe
2. Kombinatorik
Ki – bestimmte Ereignisse (z.B. Krankheiten)
3. Bedingte Wkt
Einführung
Totale Wkt
Satz von Bayes
Anwendungen
4. Klass. Wkt.
P0 (Ki ) – a–priori–Wahrscheinlichkeit für Ki
Sj – bestimmte Symptome
P(S/K ) – Wkt für Symptom S, falls K vorliegt
5. Zufallsvariablen
6. Diskrete ZV
P(S/K ) – Wkt für Symptom S, falls K nicht vorliegt
7. Charakteristika
8. Exponential
133 / 895
Expertensystem (2)
Stochastik für
InformatikerInnen
Wolfgang Kössler
“Inferenzmaschine”
1. Grundbegriffe
2. Kombinatorik
P(K |S) =
3. Bedingte Wkt
Einführung
Totale Wkt
Satz von Bayes
Anwendungen
P(K |S) =
P(S|K ) · P(K )
P(S)
P(S|K ) · P(K )
P(S)
P(S) = P(S|K ) · P(K ) + P(S|K ) · P(K )
4. Klass. Wkt.
5. Zufallsvariablen
P(S) = 1 − P(S)
6. Diskrete ZV
7. Charakteristika
8. Exponential
134 / 895
Expertensystem (3)
Stochastik für
InformatikerInnen
Arbeitsweise:
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
Krankheiten K1 , . . . , KK
Symptome S1 , . . . , SS
3. Bedingte Wkt
Einführung
I0 = {1, . . . , K }
Totale Wkt
Indexmenge der möglichen
Krankheiten (wird laufend aktualisiert)
Satz von Bayes
Anwendungen
4. Klass. Wkt.
J = {1, . . . , S}
5. Zufallsvariablen
l:
6. Diskrete ZV
l = 0;
7. Charakteristika
P0 = P;
8. Exponential
Indexmenge der Symptome
laufender Index
ärztliches (Basis-)Wissen
∀(i, j) ∈ Il xJ:
135 / 895
Expertensystem (4)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
Einführung
Totale Wkt
Satz von Bayes
Berechnen der bedingten Wahrscheinlichkeiten
Pl (Sj ) := P(Sj |Ki ) · Pl (Ki ) + P(Sj |K i ) · Pl (K i )
P(Sj |Ki ) · Pl (Ki )
Pl (Ki |Sj ) =
P(Sj )
Anwendungen
4. Klass. Wkt.
Pl (Ki |S j ) =
Pl (Sj |Ki ) · Pl (Ki )
Pl (S j )
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
136 / 895
Expertensystem (5)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
A. Bestimmen des Symptoms, das am besten die
2. Kombinatorik
Menge der Krankheiten charakterisiert
X
r (j) :=
|Pl (Ki |Sj ) − P(Ki |S j )| ∀ j ∈ J;
3. Bedingte Wkt
Einführung
Totale Wkt
Satz von Bayes
i∈Il
Anwendungen
4. Klass. Wkt.
jl := argmaxj∈J r (j) das Symptom mit dem größten r (j).
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
137 / 895
Expertensystem (6)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
Einführung
Totale Wkt
Satz von Bayes
Anwendungen
4. Klass. Wkt.
B. Frage an den Patienten nach Symptom Sjl
P(Ki ) wird aktualisiert:


P (K |S )


 l i jl
Pl+1 (Ki ) = Pl (Ki |S jl )



P (K )
l
i
falls JA
falls NEIN
falls WEIS NICHT
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
138 / 895
Expertensystem (7)
Stochastik für
InformatikerInnen
Wolfgang Kössler
Aktualisieren der bedingten Wktn.
1. Grundbegriffe
∀(i, j) ∈ Il xJ:
2. Kombinatorik
3. Bedingte Wkt
Einführung
Totale Wkt
Satz von Bayes
Anwendungen
4. Klass. Wkt.
5. Zufallsvariablen
Pl+1 (Sj ) := P(Sj |Ki ) · Pl+1 (Ki ) + P(Sj |K i ) · Pl+1 (K i )
P(Sj |Ki ) · Pl+1 (Ki )
Pl+1 (Ki |Sj ) :=
P(Sj )
Pl+1 (Ki |S j ) :=
P(Sj |Ki ) · Pl+1 (Ki )
P(S j )
6. Diskrete ZV
7. Charakteristika
8. Exponential
139 / 895
Expertensystem (8)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
C: Bestimmen des Symptoms, das am besten die
Krankheit i charakterisiert
Einführung
Totale Wkt
Satz von Bayes
Anwendungen
mi := max |Pl+1 (Ki |Sj ) − Pl+1 (Ki |S j )|,
j∈J
∀i ∈ Il
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
140 / 895
Expertensystem (9)
Stochastik für
InformatikerInnen
Krankheiten mit zu kleinen Abständen werden aus
Wolfgang Kössler
der Indexmenge entfernt.
1. Grundbegriffe
Symptom jl ist abgearbeitet.
2. Kombinatorik
Il+1 = Il \ {i ∈ Il : mi < c}
3. Bedingte Wkt
Jl+1 = Jl \ {jl };
Einführung
Totale Wkt
Satz von Bayes
Anwendungen
l := l + 1;
4. Klass. Wkt.
Abbruchbedingung nicht erfüllt: goto A.
5. Zufallsvariablen
Abbruchbedingung, z.B.
6. Diskrete ZV
7. Charakteristika
8. Exponential
Il = Il+1 , Sjl = Sjl+1 , Il+1 = {i} oder Jl+1 = ∅
end.
141 / 895
Ein–Prozessorsystem mit I/O–Einheit
Stochastik für
InformatikerInnen
Wolfgang Kössler
Langzeitverhalten eines
Ein–Prozessorsystems mit einer I/O–Einheit
1. Grundbegriffe
2. Kombinatorik
Wir betrachten ein Ein–Prozessorsystem, das auf
3. Bedingte Wkt
folgende Weise arbeiten soll: Wenn ein Programm
Einführung
Totale Wkt
beendet wird, so wird mit Wahrscheinlichkeit p
Satz von Bayes
Anwendungen
4. Klass. Wkt.
5. Zufallsvariablen
(0 < p < 1) die I/O–Einheit aktiviert, und mit
Wahrscheinlichkeit q = 1 − p erfolgt ein erneuter
Programmstart. Nach Beendigung eines
6. Diskrete ZV
7. Charakteristika
8. Exponential
I/O–Vorgangs wird immer ein neues Programm
gestartet.
142 / 895
Ein–Prozessorsystem mit I/O–Einheit
(2)
Stochastik für
InformatikerInnen
Wolfgang Kössler
Frage: Mit welcher Wahrscheinlichkeit befindet sich
das System im n–ten Zyklus im Programmzustand?
1. Grundbegriffe
2. Kombinatorik
Wir legen fest (n = 1, 2, 3, . . .):
3. Bedingte Wkt
Einführung
An - Ereignis, daß im n–ten Zyklus ein Programm
Totale Wkt
Satz von Bayes
startet
Anwendungen
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
An - Ereignis, daß im n–ten Zyklus die I/O–Einheit
aktiviert wird
gesucht: P(An ) . Langzeitverhalten ( lim P(An )).
n→∞
143 / 895
Ein–Prozessorsystem mit I/O–Einheit
(3)
Stochastik für
InformatikerInnen
Wolfgang Kössler
P(A1 ) = 1, denn es wird beim Einschalten des
Systems immer mit einem Programm begonnen.
1. Grundbegriffe
2. Kombinatorik
Aus der anfangs angegebenen Beschreibung der
3. Bedingte Wkt
Arbeitsweise des Systems folgt:
Einführung
Totale Wkt
P(An+1 /An ) = q = 1 − p
Satz von Bayes
Anwendungen
P(An+1 /An ) = p
4. Klass. Wkt.
5. Zufallsvariablen
P(An+1 /An ) = 0
6. Diskrete ZV
P(An+1 /An ) = 1
7. Charakteristika
8. Exponential
qn := P(An ). Die ersten drei Werte sind:
144 / 895
Einprozessorsystem mit I/O–Einheit
(4)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
Einführung
Totale Wkt
Satz von Bayes
Anwendungen
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
q1 = P(A1 ) = 1
q2 = P(A2 )
= P(A2 /A1 ) · P(A1 ) + P(A2 /A1 ) · P(A1 ) totale W.
|
{z
}
=0
= q =1−p
q3 = P(A3 )
= P(A3 /A2 ) · P(A2 ) + P(A3 /A2 ) · P(A2 )
= q · q + 1 · (1 − q) = (1 − p)2 + p = 1 − p + p2
145 / 895
Einprozessorsystem mit I/O–Einheit
(5)
Stochastik für
InformatikerInnen
Wolfgang Kössler
Vermutung:
1. Grundbegriffe
2. Kombinatorik
qn = P(An ) =
3. Bedingte Wkt
n−1
X
(−p)i .
i=0
Einführung
Totale Wkt
Beweis: (vollständige Induktion):
Satz von Bayes
Anwendungen
IA: Es sei n = 1: q1 = 1.
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
IS: Wir nehmen an, daß die Formel für n gilt. Wir
zeigen die Gültigkeit für n + 1:
7. Charakteristika
8. Exponential
146 / 895
Einprozessorsystem mit I/O–Einheit
(6)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
qn+1 = P(An+1 )
2. Kombinatorik
= P(An+1 /An ) · P(An ) + P(An+1 /An ) · P(An )
3. Bedingte Wkt
= q · qn + 1 · (1 − qn ) = 1 + (q − 1) · qn
Einführung
Totale Wkt
Satz von Bayes
Anwendungen
4. Klass. Wkt.
= 1 − p · qn
n−1
X
= 1−p·
(−p)i (nach IV)
i=0
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
= 1+
n
X
i=1
i
(−p) =
n
X
(−p)i
i=0
147 / 895
Einprozessorsystem I/O–Einheit
(7)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
Einführung
Untersuchen wir noch das Langzeitverhalten:
lim P(An ) =
n→∞
=
Satz von Bayes
4. Klass. Wkt.
5. Zufallsvariablen
(−p)i
i=0
Totale Wkt
Anwendungen
lim qn
n→∞
∞
X
=
1
1
=
,
1 − (−p)
1+p
geometrische Reihe mit | − p| < 1.
6. Diskrete ZV
7. Charakteristika
8. Exponential
Frage: Sind die Ereignisse An+1 und An unabhängig?
148 / 895
Einprozessorsystem I/O–Einheit
(8)
Stochastik für
InformatikerInnen
Sind die Ereignisse An+1 und An unabhängig?
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
P(An+1 ∩ An ) = P(An+1 /An ) · P(An )
= q · qn
3. Bedingte Wkt
Einführung
Totale Wkt
Angen., die beiden Ereignisse sind unabhängig,
Satz von Bayes
Anwendungen
4. Klass. Wkt.
5. Zufallsvariablen
P(An+1 /An ) = P(An+1 )
q = qn+1
6. Diskrete ZV
7. Charakteristika
Aber, für n ≥ 2 gilt q 6= qn+1 . Also sind die Ereignisse
8. Exponential
An und An+1 nicht unabhängig.
149 / 895
Einprozessorsystem I/O–Einheit
(9)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Der gesamte Ablauf läßt sich eindeutig in Matrixform
2. Kombinatorik
darstellen:
3. Bedingte Wkt
I/O
A
I/O
0
1
A
p
1−p
Einführung
Totale Wkt
Satz von Bayes
Anwendungen
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
150 / 895
Weitere Anwendungen
(1)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
Zuverlässigkeitstheorie
Wir betrachten ein Reihen-System mit 2 Bauteilen,
die unabhängig voneinander ausfallen,
3. Bedingte Wkt
Einführung
Totale Wkt
pi : Ausfallwkt. für Bauteil i
Satz von Bayes
Anwendungen
Fall: System fällt (innerhalb eines best. Zeitraumes)
4. Klass. Wkt.
aus. Wie groß ist Wkt., dass genau das
5. Zufallsvariablen
erste Bauteil ausgefallen ist?
6. Diskrete ZV
7. Charakteristika
8. Exponential
151 / 895
Zuverlässigkeitstheorie
Beispiel, Fortsetzung
Stochastik für
InformatikerInnen
Wolfgang Kössler
Ai : Ereignis, dass Bauteil i ausfällt.
1. Grundbegriffe
geg.: P(Ai ) = pi , i = 1, 2
2. Kombinatorik
ges.: P(A1 ∩ A2 |A1 ∪ A2 )?
3. Bedingte Wkt
Einführung
P(A1 ∩ A2 |A1 ∪ A2 ) =
Totale Wkt
Satz von Bayes
=
Anwendungen
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
P((A1 ∩ A2 ) ∩ (A1 ∪ A2 ))
P(A1 ∪ A2 )
P(A1 ∩ A2 )
P(A1 ∪ A2 )
P(A1 ) · P(A2 )
P(A1 ) + P(A2 ) − P(A1 ∩ A2 )
p1 (1 − p2 )
=
p1 + p2 − p1 p2
=
Distr.gesetz
ÜA, Subtraktivität
152 / 895
Zuverlässigkeitstheorie
Beispiel, Fortsetzung 2
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
Analog
3. Bedingte Wkt
Einführung
Totale Wkt
P(A2 ∩ A1 |A1 ∪ A2 ) =
p2 (1 − p1 )
p1 + p2 − p1 p2
Satz von Bayes
Anwendungen
Wkt. für Ausfall beider Bauteile: ÜA
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
153 / 895
Weitere Anwendungen
(2)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
Münzwurf-Spiel
A und B spielen: Münze wird abwechselnd geworfen.
Es gewinnt, wer zuerst Blatt hat.
3. Bedingte Wkt
Einführung
B: Ereignis, dass bei einem Wurf Blatt kommt
Totale Wkt
Satz von Bayes
Z : Ereignis, dass bei einem Wurf Zahl kommt
Anwendungen
4. Klass. Wkt.
E: Ereignis, dass A gewinnt
5. Zufallsvariablen
F : Ereignis, dass B gewinnt
6. Diskrete ZV
G: Spiel endet nicht.
7. Charakteristika
8. Exponential
154 / 895
Münzwurf-Spiel
(Fortsetzung)
Stochastik für
InformatikerInnen
Münzwurf-Spiel (Fortsetzung)
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
P(E) = P(B) + P(ZZB) + P(ZZZZB) + · · ·
∞
1
1X 1
1 1
=
+ +
+ ··· =
2
4i
2 8 32
i=0
3. Bedingte Wkt
Einführung
Totale Wkt
Satz von Bayes
1
1
=
·
2 1−
1
4
2
=
3
Anwendungen
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
P(F ) = P(ZB) + P(ZZZB) + P(ZZZZZB) + · · ·
1
1
1
=
+
+
+ ···
4 16 64
∞
1X 1
1
=
=
i
4
4
3
i=0
155 / 895
Weitere Anwendungen
(Fortsetzung, 2)
Stochastik für
InformatikerInnen
Wolfgang Kössler
Münzwurf-Spiel (Fortsetzung)
oder (unter Anwendung der bedingten Wktn.)
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
Einführung
Totale Wkt
Satz von Bayes
Anwendungen
4. Klass. Wkt.
P(F ) = P(F |B) · P(B) + P(F |Z ) · P(Z )
1
1
= 0 · + P(E) ·
2. wird 1. Spieler
2
2
P(E) = P(E|B) · P(B) + P(E|Z ) · P(Z )
1
1
= 1 · + P(F ) ·
2
2
5. Zufallsvariablen
6. Diskrete ZV
lineares Gleichungssystem lösen → obiges
7. Charakteristika
Ergebnis.
8. Exponential
156 / 895
Weitere Anwendungen
(3)
Stochastik für
InformatikerInnen
Ruin des Spielers
Wolfgang Kössler
Irrfahrt auf der Geraden mit 2 absorbierenden
1. Grundbegriffe
Zuständen, 0 und a + b
2. Kombinatorik
a:
Startkapital Spieler A
b:
Startkapital Spieler B
3. Bedingte Wkt
Einführung
Totale Wkt
Satz von Bayes
Anwendungen
4. Klass. Wkt.
Ek :
Ereignis, dass der Spieler, der k Euro besitzt,
ruiniert wird,
A−1 :
pk = P(Ek )
Ereignis, im nächsten Schritt einen Euro zu
5. Zufallsvariablen
6. Diskrete ZV
verlieren.
7. Charakteristika
A+1 :
Ereignis, im nächsten Schritt einen Euro zu
8. Exponential
gewinnen.
157 / 895
Ruin des Spielers
(Fortsetzung)
Stochastik für
InformatikerInnen
Wolfgang Kössler
Nach dem Satz der Totalen Wahrscheinlichkeit gilt:
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
Einführung
pk = P(Ek |A−1 ) · P(A−1 ) + P(Ek |A+1 ) · P(A+1 )
1
(pk−1 + pk +1 )
=
2
Totale Wkt
Satz von Bayes
Daraus folgt:
Anwendungen
4. Klass. Wkt.
2pk = pk +1 + pk −1
5. Zufallsvariablen
6. Diskrete ZV
pk +1 − pk = pk − pk −1 =: d
7. Charakteristika
8. Exponential
158 / 895
Ruin des Spielers
(Fortsetzung, 2)
Stochastik für
InformatikerInnen
Offenbar: p0 = 1,
pa+b = 0
Wolfgang Kössler
1. Grundbegriffe
pk = pk − pk −1 +pk −1 − + · · · + p1 − p0 +p0
| {z }
| {z }
=d
2. Kombinatorik
3. Bedingte Wkt
Einführung
pa+b = (a + b)d + 1 = 0 ⇒ d = −
Totale Wkt
Satz von Bayes
Anwendungen
pa
6. Diskrete ZV
7. Charakteristika
8. Exponential
1
a+b
k
a+b
a
b
= 1−
=
a+b
a+b
a
=
a+b
pk = 1 −
4. Klass. Wkt.
5. Zufallsvariablen
=d
= kd + 1
pb
159 / 895
Inhalt
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
4.1 Binomiale Wahrscheinlichkeiten
2. Kombinatorik
4.2 Multinomiale Wahrscheinlichkeiten
3. Bedingte Wkt
4.3 P OISSON–Wahrscheinlichkeiten
4. Klass. Wkt.
Binomiale Wkt.
Multinomiale Wkt
Poisson-Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
160 / 895
4. Klassische
Wahrscheinlichkeitsräume
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
Versuche mit zwei möglichen Ausgängen:
A (gut) und A (schlecht).
Ω = {A, A} = { gut“, schlecht“}
”
”
E = {∅, A, A, Ω}
P(A) = p
Binomiale Wkt.
Multinomiale Wkt
Poisson-Wkt.
5. Zufallsvariablen
P(A) = q = 1 − p
Beispiele
1
2
6. Diskrete ZV
Münzwurf: p =
7. Charakteristika
Würfeln: p =
8. Exponential
Qualitätskontrolle: p · 100% die Ausschußquote.
1
6
161 / 895
Binomiale Wahrscheinlichkeiten
(2)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2–malige Durchführung (unabhängig voneinander)
Elementarereignisse: (A, A), (A, A), (A, A), (A, A). mit
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
Binomiale Wkt.
Multinomiale Wkt
Poisson-Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
den Wahrscheinlichkeiten
P((A, A)) = p2
P((A, A)) = p · (1 − p)
P((A, A)) = p · (1 − p)
P((A, A)) = (1 − p)2
8. Exponential
162 / 895
Binomiale Wahrscheinlichkeiten
(Zweifaches Bernoulli-Schema)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Bk : Ereignis, daß A k–mal auftritt, wobei k = 0, 1, 2.
P(B0 ) = (1 − p)2
2. Kombinatorik
3. Bedingte Wkt
P(B1 ) = 2 · (p · (1 − p))
4. Klass. Wkt.
P(B2 ) = p2
Binomiale Wkt.
Multinomiale Wkt
Poisson-Wkt.
5. Zufallsvariablen
6. Diskrete ZV
Man kann leicht überprüfen, daß allgemein gilt:
2 k
P(Bk ) =
p (1 − p)2−k .
k
7. Charakteristika
8. Exponential
163 / 895
Binomiale Wahrscheinlichkeiten
(n-faches Bernoulli-Schema)
Stochastik für
InformatikerInnen
Wolfgang Kössler
n–malige Durchführung (unabhängig voneinander)
Analog zum vorigen Experiment sei jetzt Bk das
1. Grundbegriffe
Ereignis, daß A genau k–mal auftritt, k = 0, . . . , n.
2. Kombinatorik
analog zu oben:
3. Bedingte Wkt
4. Klass. Wkt.
P(Bk ) =
n
k
pk (1 − p)n−k .
Binomiale Wkt.
Multinomiale Wkt
Poisson-Wkt.
Formel für das n–fache B ERNOULLI–Schema.
5. Zufallsvariablen
6. Diskrete ZV
Bezeichnung: B(p, n) oder auch Bi(p, n)
7. Charakteristika
Die Wahrscheinlichkeiten P(Bk ) bezeichnen wir auch
8. Exponential
als Binomialwahrscheinlichkeiten.
164 / 895
n-faches Bernoulli-Schema
(2)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Offenbar:
2. Kombinatorik
3. Bedingte Wkt
n
X
4. Klass. Wkt.
Binomiale Wkt.
Multinomiale Wkt
i=0
P(Bi ) =
n X
n
i=0
i
pi (1 − p)n−i
= (p + 1 − p)n = 1
Poisson-Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
165 / 895
Binomiale Wahrscheinlichkeiten
Beispiel
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
Binomiale Wkt.
Multinomiale Wkt
Poisson-Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
Fünfmal eine Münze werfen
A: das Ereignis, daß bei einem Wurf Zahl“ fällt,
”
P(A) = p = 12
B3 : Ereignis, daß A genau dreimal auftritt:
5−3
5 1 3
P(B3 ) =
1 − 12
2
3
5 1 5
=
3 2
5
.
=
16
8. Exponential
166 / 895
Inhalt
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
4.1 Binomiale Wahrscheinlichkeiten
2. Kombinatorik
4.2 Multinomiale Wahrscheinlichkeiten
3. Bedingte Wkt
4.3 P OISSON–Wahrscheinlichkeiten
4. Klass. Wkt.
Binomiale Wkt.
Multinomiale Wkt
Poisson-Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
167 / 895
4.2 Multinomiale Wahrscheinlichkeiten
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Wir betrachten ein zufälliges Experiment mit den
Ausgängen A1 , A2 , . . . , Al . Wir setzen
Pl
pi = P(Ai ),
i=1 pi = 1.
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
Binomiale Wkt.
Multinomiale Wkt
Poisson-Wkt.
5. Zufallsvariablen
Es sei ein Behälter mit k Kugeln in l verschiedenen
Farben gegeben, wobei ki Kugeln die Farbe i
P
(i = 1, . . . , l) besitzen, li=1 ki = k.
Wahrscheinlichkeit, mit der eine Kugel einer
bestimmten Farbe aus dem Behälter entnommen
6. Diskrete ZV
7. Charakteristika
8. Exponential
wird:
P(Kugel der Farbe i) = pi =
ki
.
k
168 / 895
Multinomiale Wahrscheinlichkeiten
(2)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
Binomiale Wkt.
Multinomiale Wkt
Poisson-Wkt.
Das Experiment soll nun n–mal wiederholt werden.
Bn1 ,n2 ,...,nl : das Ereignis, daß die Ereignisse A1
n1 –mal, A2 n2 –mal, . . ., und Al nl –mal eintreten.
n!
· p1n1 · p2n2 · . . . · plnl .
n1 ! · n2 ! · . . . · nl !
Derartige Wahrscheinlichkeiten bezeichnen wir auch
P(Bn1 ,n2 ,...,nl ) =
5. Zufallsvariablen
als multinomiale Wahrscheinlichkeiten (polynomiale
6. Diskrete ZV
Wktn.)
7. Charakteristika
8. Exponential
169 / 895
Potenzen von Summen
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Vergleichen Sie:
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
Binomiale Wkt.
Multinomiale Wkt
Poisson-Wkt.
5. Zufallsvariablen
(a1 + . . . + al )n =
X
n!
a1n1 · · · alnl
n1 ! · · · nl !
wobei die Summe über alle Tupel (n1 , . . . , nl )
P
gebildet wird mit li=1 ni = n.
6. Diskrete ZV
7. Charakteristika
8. Exponential
170 / 895
Multinomiale Wahrscheinlichkeiten
Beispiel
Stochastik für
InformatikerInnen
Wolfgang Kössler
Fragebogen
Bei einem Fragebogen wird (u.a.) nach dem Alter
1. Grundbegriffe
der befragten Personen gefragt. Das Alter ist in
2. Kombinatorik
Klassen eingeteilt, 10-20, 21-40, 41-60, über 60
3. Bedingte Wkt
Jahre. Der Bevölkerungsanteil beträgt jeweils pi für
P
die i-te Altersklasse, i = 1, . . . , 4,
i pi = 1.
4. Klass. Wkt.
Binomiale Wkt.
Multinomiale Wkt
Poisson-Wkt.
Es werden n=1000 Personen befragt.
5. Zufallsvariablen
Wie groß ist die Wkt., daß
6. Diskrete ZV
höchstens 10% der befragten bis zu 20 Jahre,
7. Charakteristika
und außerdem bis zu 10% der Befragten älter als 60
8. Exponential
Jahre alt waren?
171 / 895
Multinomiale Wahrscheinlichkeiten
Beispiel, Fortsetzung
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Sei Xi = (Xi1 , Xi2 , Xi3 , Xi4 ), wobei
2. Kombinatorik
Xij = 1 falls Person i zur j-ten Altersklasse gehört,
3. Bedingte Wkt
4. Klass. Wkt.
und Xij = 0 sonst. Dann ist
Binomiale Wkt.
Multinomiale Wkt
Poisson-Wkt.
5. Zufallsvariablen
Y=
n
X
Xi =: (Y1 , . . . , Y4 ) ∼ Mult(n, p1 , p2 , p3 , p4 )
i=1
6. Diskrete ZV
7. Charakteristika
8. Exponential
172 / 895
Multinomiale Wahrscheinlichkeiten
Beispiel, Fortsetzung
Stochastik für
InformatikerInnen
Wolfgang Kössler
Sei a := 100
1. Grundbegriffe
P(Y1 , Y4 ≤ a) =
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
Binomiale Wkt.
Multinomiale Wkt
= P(Y1 ≤ a, Y2 + Y3 = n − Y1 − Y4 , Y4 ≤ a)
a X
a
X
=
P(Y1 = i, Y2 + Y3 = n − i − j, Y4 = j)
i=1 j=1
Poisson-Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
=
a X
a
X
i=1 j=1
n!
pi pj (p2 + p3 )n−i−j
i!j!(n − i − j)! 1 4
8. Exponential
173 / 895
Inhalt
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
4.1 Binomiale Wahrscheinlichkeiten
2. Kombinatorik
4.2 Multinomiale Wahrscheinlichkeiten
3. Bedingte Wkt
4.3 P OISSON–Wahrscheinlichkeiten
4. Klass. Wkt.
Binomiale Wkt.
Multinomiale Wkt
Poisson-Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
174 / 895
4.3 P OISSON–Wahrscheinlichkeiten
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
Beispiele, bei denen P OISSON–Wahrscheinlichkeiten
auftreten, sind
die Anzahl von Verkehrsunfällen in einem Ort in
einem bestimmten Zeitintervall,
3. Bedingte Wkt
4. Klass. Wkt.
Binomiale Wkt.
Multinomiale Wkt
Poisson-Wkt.
die Ankünfte von Kunden an einem Schalter
oder
der radioaktive Zerfall von α–Teilchen.
5. Zufallsvariablen
6. Diskrete ZV
In einer Telefonzentrale wird ermittelt, wieviel
7. Charakteristika
Anrufe in einer bestimmten Zeiteinheit
8. Exponential
ankommen.
175 / 895
P OISSON–Wahrscheinlichkeiten
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
Elementarereignisse sind hier Anzahlen, z.B. das
Ereignis, daß in einer Zeiteinheit genau i Anrufe
eintreffen.
λi −λ
e .
i!
λ ist dabei ein noch unbestimmter Parameter. Er
P(ωi ) =
kann als mittlere Rate aufgefaßt werden.
Binomiale Wkt.
Multinomiale Wkt
Poisson-Wkt.
5. Zufallsvariablen
P(Ω) =
∞
X
i=0
6. Diskrete ZV
P(ωi ) =
∞
X
i=0
λi −λ
e
i!
=e
−λ
∞
X
λi
i!
=1
i=0
| {z }
=eλ
7. Charakteristika
Wir werden später sehen, daß diese Verteilung
8. Exponential
“natürlich” ist.
176 / 895
Inhalt
Stochastik für
InformatikerInnen
Wolfgang Kössler
5.1 Grundbegriffe
1. Grundbegriffe
2. Kombinatorik
5.2 Diskrete Zufallsvariablen
3. Bedingte Wkt
5.3 Stetige Zufallsvariablen
4. Klass. Wkt.
5.4 Allgemeine Eigenschaften einer
5. Zufallsvariablen
Verteilungsfunktion
Grundbegriffe
Diskrete ZV
Stetige ZV
Verteilungsfunktion
6. Diskrete ZV
7. Charakteristika
8. Exponential
177 / 895
5. Zufallsvariablen (allgemein)
5.1 Grundbegriffe
Stochastik für
InformatikerInnen
Def. 13 (Messbarkeit von Abbildungen)
Wolfgang Kössler
Es seien (Ω1 , E1 , P1 ) und (Ω2 , E2 , P2 )
1. Grundbegriffe
Wahrscheinlichkeitsräume. Eine Abbildung
2. Kombinatorik
X : Ω1 −→ Ω2
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
Grundbegriffe
Diskrete ZV
Stetige ZV
Verteilungsfunktion
heißt E1 –E2 –messbar, falls für alle Ereignisse A ∈ E2
gilt:
X −1 (A) = {ω ∈ Ω1 : X (ω) ∈ A} ∈ E1 .
6. Diskrete ZV
7. Charakteristika
Bem.: Oftmals wird die Menge B 1 der
8. Exponential
B OREL–Mengen als Ereignisfeld E2 betrachtet.
178 / 895
Zufällige Variable
Stochastik für
InformatikerInnen
Wolfgang Kössler
Def. 14 (Zufällige Variable, Zufallsgröße)
1. Grundbegriffe
Es sei (Ω, E, P) ein Wahrscheinlichkeitsraum. Eine
2. Kombinatorik
E–B 1 –meßbare Abbildung X von Ω in R heißt
3. Bedingte Wkt
(reellwertige) zufällige Variable oder Zufallsgröße.
4. Klass. Wkt.
5. Zufallsvariablen
Grundbegriffe
Diskrete ZV
Stetige ZV
Verteilungsfunktion
6. Diskrete ZV
Bem.: (R, B 1 , P 0 ) bildet hier den zweiten
Wahrscheinlichkeitsraum, wobei P 0 eine Abbildung
von B 1 in R ist, die den KOLMOGOROV–Axiomen
genügt.
7. Charakteristika
8. Exponential
179 / 895
Zufällige Variable
Beispiel (1)
Stochastik für
InformatikerInnen
Augensumme beim zweimaligen Würfeln
Wolfgang Kössler
Ω = {(i, j), 1 ≤ i, j ≤ 6}:
1. Grundbegriffe
E = P(Ω):
2. Kombinatorik
P(ω) = P(i, j) =
Ereignisfeld
1
:
36
Laplace-Wkt.
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
Grundbegriffe
Diskrete ZV
Paare von Augenzahlen
Ω → Ω0
X :
Ω0 = {S : 2 ≤ S ≤ 12} oder Ω0 = R, S: Augensumme
E 0 = P(Ω0 ) oder E 0 = B:
Ereignisfeld
Stetige ZV
Verteilungsfunktion
6. Diskrete ZV
P 0 (ω 0 ) = P(S = s) =
#(i, j) : i + j = s
|X −1 (s)|
=
36
36
7. Charakteristika
8. Exponential
Bedingung z.B.: X −1 (s) ∈ E oder X −1 ({s1 , s2 }) ∈ E
180 / 895
Zufällige Variable
Beispiel (2)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Die Indikatorfunktion ist Zufallsvariable
Sei A ein Ereignis, Ω = {A, A} und E = {A, A, ∅, Ω}.
Die Abbildung
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen

1
IA (x) =
0
falls x ∈ A
sonst
Grundbegriffe
Diskrete ZV
ist messbar, und also Zufallsvariable, denn
Stetige ZV
Verteilungsfunktion
6. Diskrete ZV
7. Charakteristika
8. Exponential
IA−1 (1) = A ∈ E,
IA−1 ({0, 1}) = Ω ∈ E,
IA−1 (0) = A ∈ E,
IA−1 (y) = ∅ ∈ E(y 6= 0, 1),
181 / 895
Zufällige Variable
Fortsetzung
Stochastik für
InformatikerInnen
X : Ω −→ R sei eine zufällige Variable,
Wolfgang Kössler
X : (Ω, E, P) −→ (R, B 1 , PX ).
1. Grundbegriffe
Sei x ∈ R beliebig, aber fest. Betrachten das
2. Kombinatorik
zufällige Ereignis
3. Bedingte Wkt
4. Klass. Wkt.
B = (−∞, x) = {X < x} := {ω ∈ Ω : X (ω) < x} ∈ B 1 .
5. Zufallsvariablen
Grundbegriffe
Für die Wahrscheinlichkeit dieses Ereignisses gilt:
Diskrete ZV
Stetige ZV
Verteilungsfunktion
6. Diskrete ZV
7. Charakteristika
8. Exponential
P(X < x) = P({ω : X (ω) < x}) = P({ω : X (ω) ∈ B})
= P(X −1 (B)) =: PX (B)
182 / 895
Verteilungsfunktion
Stochastik für
InformatikerInnen
Wolfgang Kössler
Def. 15 (Verteilungsfunktion von X )
FX (x) := P(X < x) = PX ((−∞, x))
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
Bem.: Der Einfachheit halber werden wir die
4. Klass. Wkt.
Funktion FX einfach nur mit F bezeichnen.
5. Zufallsvariablen
Bem.: Manchmal wird die Verteilungsfunktion auch
Grundbegriffe
Diskrete ZV
Stetige ZV
Verteilungsfunktion
6. Diskrete ZV
durch
FX (x) = P(X ≤ x)
definiert (bei SAS z.B.)
7. Charakteristika
8. Exponential
183 / 895
Inhalt
Stochastik für
InformatikerInnen
Wolfgang Kössler
5.1 Grundbegriffe
1. Grundbegriffe
2. Kombinatorik
5.2 Diskrete Zufallsvariablen
3. Bedingte Wkt
5.3 Stetige Zufallsvariablen
4. Klass. Wkt.
5.4 Allgemeine Eigenschaften einer
5. Zufallsvariablen
Verteilungsfunktion
Grundbegriffe
Diskrete ZV
Stetige ZV
Verteilungsfunktion
6. Diskrete ZV
7. Charakteristika
8. Exponential
184 / 895
5.2 Diskrete Zufallsvariablen
Stochastik für
InformatikerInnen
Eine diskrete Zufallsgröße
Wolfgang Kössler
X : Ω −→ {xi : i ∈ N} =: W ⊂ R.
1. Grundbegriffe
2. Kombinatorik
nimmt höchstens abzählbar viele verschiedene
3. Bedingte Wkt
Werte mit positiver Wahrscheinlichkeit an.
4. Klass. Wkt.
Notation:
5. Zufallsvariablen
Grundbegriffe
Diskrete ZV
Stetige ZV
Verteilungsfunktion
6. Diskrete ZV

X :
x1 x2 . . . xn . . .


p1 p2 . . . pn . . .
xi ∈ R: Werte, die die Zufallsgröße annehmen kann
7. Charakteristika
8. Exponential
pi : die entsrechenden Wahrscheinlichkeiten.
185 / 895
Diskrete Zufallsvariablen
Fortsetzung
Stochastik für
InformatikerInnen
Es gilt:
Wolfgang Kössler
1. Grundbegriffe
pi ≥ 0,
∞
X
pi = 1,
pi = P(X = xi ).
i=1
2. Kombinatorik
Wenn wir Mengen Ai definieren durch
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
Grundbegriffe
Diskrete ZV
Stetige ZV
Verteilungsfunktion
6. Diskrete ZV
7. Charakteristika
8. Exponential
Ai := {ω : X (ω) = xi }, ∀i ∈ N,
so gilt offenbar: Ai ∩ Aj = ∅,
Allgemein gilt dann:

 pi , falls x = xi
P(X = x) =
 0, falls x 6= x
i
∀i, j ∈ N, i 6= j.
∀xi ∈ W , i ∈ N.
186 / 895
Diskrete Zufallsvariablen
Verteilungsfunktion
Stochastik für
InformatikerInnen
Wolfgang Kössler
F (x) = P(X < x) = P 
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
Grundbegriffe
Diskrete ZV
Stetige ZV
Verteilungsfunktion
6. Diskrete ZV
7. Charakteristika
8. Exponential


[
Ai 
i : xi <x
=
X
P(Ai ) =
i : xi <x
X
pi
i : xi <x
D.h.: Eine diskrete Zufallsgröße, die die Werte
{xi : i ∈ N} annimmt, wobei x1 < x2 < x3 < . . . gilt,
hat die folgende Verteilungsfunktion:



0,
falls x ≤ x1
F (x) =
P

pi , falls x1 < x

i : xi <x
187 / 895
Diskrete Zufallsvariablen
Beispiele (1)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
Diskrete Gleichverteilung


x1 x2 . . . xn

X : 
1
1
1
... n
n
n
Grundbegriffe
Diskrete ZV
Stetige ZV
Verteilungsfunktion
6. Diskrete ZV
7. Charakteristika
8. Exponential
188 / 895
Diskrete Zufallsvariablen
Beispiele (2)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
Binomialverteilung, X ∼ B(p, n) oder X ∼ Bi(p, n).


0 1 ... n

X : 
p0 p1 . . . pn
n i
P(X = i) = pi =
p ·(1−p)n−i > 0,
0 < p < 1.
i
5. Zufallsvariablen
Grundbegriffe
Diskrete ZV
Wir haben oben gesehen, dass
Stetige ZV
Verteilungsfunktion
6. Diskrete ZV
7. Charakteristika
8. Exponential
n
X
i=0
pi =
n X
n
i=0
i
pi (1 − p)n−i = (p + 1 − p)n = 1.
189 / 895
Diskrete Zufallsvariablen
Wahrscheinlichkeitsfunktionen
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Binomial
Poisson
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
Grundbegriffe
Diskrete ZV
Stetige ZV
Verteilungsfunktion
6. Diskrete ZV
7. Charakteristika
8. Exponential
190 / 895
Diskrete Zufallsvariablen
Beispiele (3)
Stochastik für
P OISSON–Verteilung, X ∼ Poi(λ)
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
Grundbegriffe
Diskrete ZV
Stetige ZV
Verteilungsfunktion
6. Diskrete ZV
7. Charakteristika
Es sei X eine diskrete Zufallsgröße,


0 1 ... n ...

X : 
p0 p1 . . . pn . . .
λn −λ
e , λ > 0.
n!
Wir haben oben gesehen, daß
∞
∞
∞
X
X
X
λn −λ
λn
pn =
e = e−λ
=1
n!
n!
n=0
n=0
|n=0{z }
P(X = n) = pn =
=eλ
8. Exponential
191 / 895
Inhalt
Stochastik für
InformatikerInnen
Wolfgang Kössler
5.1 Grundbegriffe
1. Grundbegriffe
2. Kombinatorik
5.2 Diskrete Zufallsvariablen
3. Bedingte Wkt
5.3 Stetige Zufallsvariablen
4. Klass. Wkt.
5.4 Allgemeine Eigenschaften einer
5. Zufallsvariablen
Verteilungsfunktion
Grundbegriffe
Diskrete ZV
Stetige ZV
Verteilungsfunktion
6. Diskrete ZV
7. Charakteristika
8. Exponential
192 / 895
5.3 Stetige Zufallsvariablen
Stochastik für
Wolfgang Kössler
Def. 16 (Dichtefunktion)
Eine Funktion f : R −→ R heißt Dichtefunktion, falls
1. Grundbegriffe
sie die folgenden Eigenschaften hat:
InformatikerInnen
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
Grundbegriffe
Diskrete ZV
1
2
Für alle x ∈ R gilt: f (x) ≥ 0.
R
Es gilt: f (x) dx = 1.
R
Def. 17 (Stetige Zufallsvariable)
Eine zufällige Variable X heißt stetig, falls eine
Stetige ZV
Verteilungsfunktion
Dichtefunktion f existiert, so daß gilt:
6. Diskrete ZV
7. Charakteristika
8. Exponential
Zx
P(X < x) = F (x) =
f (t) dt.
−∞
193 / 895
Stetige Zufallsvariablen
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Bem.: Für die Wahrscheinlichkeit P(X = x) gilt
Zx
P(X = x) = f (t) dt = 0,
2. Kombinatorik
x
3. Bedingte Wkt
sogar wenn X den Wert x tatsächlich annehmen
4. Klass. Wkt.
5. Zufallsvariablen
kann! D.h. z.B.
Grundbegriffe
P(X ≤ x) = P(X < x).
Diskrete ZV
Stetige ZV
Verteilungsfunktion
Außerdem gilt:
Zb
6. Diskrete ZV
7. Charakteristika
8. Exponential
P(a ≤ X ≤ b) =
f (t) dt.
a
194 / 895
Stetige Zufallsvariablen
Veranschaulichung
Stochastik für
InformatikerInnen
Es sei X eine stetige Zufallsgröße. Wir teilen den
Wolfgang Kössler
Wertebereich von X in Intervalle Ij ein und
1. Grundbegriffe
beobachten für jeden der Versuche Xi , in welches
2. Kombinatorik
der Intervalle Ij der Wert Xi (i = 1, . . . , n) fällt. Es sei
3. Bedingte Wkt
nj = #{Xi ∈ Ij }. ∆j : Länge eines Intervalls Ij . Sei
4. Klass. Wkt.
5. Zufallsvariablen
∆0 = max{∆j }.
j
Grundbegriffe
Diskrete ZV
femp. (x) :=
Stetige ZV
Verteilungsfunktion
6. Diskrete ZV
7. Charakteristika
8. Exponential
nj
n
∆j
, ∀x ∈ Ij .
Dann gilt:
f (x) = n→∞
lim femp. (x).
∆0 →0
195 / 895
Stetige Zufallsvariablen
Veranschaulichung (2)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
Grundbegriffe
Diskrete ZV
Stetige ZV
Verteilungsfunktion
6. Diskrete ZV
∆0 groß
∆0 klein
7. Charakteristika
8. Exponential
196 / 895
Stetige Zufallsvariablen
Beispiele (1)
Stochastik für
InformatikerInnen
Gleichverteilung, bez. X ∼ R(0, 1) oder X ∼ U(0, 1)
Wolfgang Kössler
Es sei die Zufallsvariable X auf dem Intervall [0, 1[
1. Grundbegriffe
definiert mit der Verteilungsfunktion



0, falls x < 0



F (x) =
x, falls 0 ≤ x < 1 .




 1, falls x ≥ 1
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
Grundbegriffe
Diskrete ZV
Stetige ZV
Verteilungsfunktion
6. Diskrete ZV
7. Charakteristika
8. Exponential
Die Dichtefunktion ist die Funktion f ;

 1, falls 0 ≤ x < 1
f (x) =
.
 0, sonst
197 / 895
Stetige Zufallsvariablen
Beispiele (2)
Stochastik für
InformatikerInnen
Gleichverteilung, bez. X ∼ R(a, b) oder X ∼ U(a, b)
Wolfgang Kössler
Sei X gleichverteilt auf dem Intervall [a, b),
1. Grundbegriffe
X ∼ R(a, b), dann hat X die Dichtefunktion:



0, falls x < a



1
f (x) =
, falls a ≤ x < b
b−a




 0, falls x ≥ b
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
Grundbegriffe
Diskrete ZV
Stetige ZV
Verteilungsfunktion
6. Diskrete ZV
7. Charakteristika
8. Exponential
P({ω : X (ω) ∈ [a, b]) = P(a ≤ X ≤ b)
Zb
Z
1
=
f (x) dx = b−a
a
b
dx = 1
a
198 / 895
Stetige Zufallsvariablen
Beispiele (3)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
Exponentialverteilung, X ∼ Exp(λ)
Die Zufallsvariable X habe die Verteilungsfunktion

 1 − e−λ·x , falls x ≥ 0
F (x) =
.
 0,
falls x < 0
4. Klass. Wkt.
5. Zufallsvariablen
Grundbegriffe
Diskrete ZV
Stetige ZV
Verteilungsfunktion
6. Diskrete ZV
7. Charakteristika
8. Exponential
Die Dichtefunktion ist

 λ · e−λ·x , falls x ≥ 0
0
f (x) = F (x) =
.
 0,
falls x < 0
limx→−∞ F (x) = 0,
limx→+∞ F (x) = 1.
199 / 895
Stetige Zufallsvariablen
Beispiele (4)
Stochastik für
InformatikerInnen
Normalverteilung, X ∼ N (µ, σ 2 )
Wolfgang Kössler
X :
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
(Ω, E, P) → (R1 , B 1 , PX )
sei der Messfehler bei Messung einer physikalischen
Konstanten.
Der Wkt.raum (Ω, E, P) ist ein Modell eines im
5. Zufallsvariablen
Grundbegriffe
Diskrete ZV
Stetige ZV
Verteilungsfunktion
6. Diskrete ZV
7. Charakteristika
8. Exponential
Hintergrund wirkenden Zufallsmechanismus, der nicht
näher beschrieben werden kann,
Fehler im Meßinstrument; zufällige äußere Einflüsse.
Er enthält alle nicht näher bestimmbaren zufälligen
Effekte. Zur Beschreibung dient der Bildraum (R1 , B 1 , PX ).
200 / 895
Stetige Zufallsvariablen
Beispiele (4a)
Stochastik für
InformatikerInnen
Wolfgang Kössler
Normalverteilung, X ∼ N (µ, σ 2 )
Die Zufallsvariable X mit der Verteilungsfunktion
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
F (x) = √
2πσ
4. Klass. Wkt.
5. Zufallsvariablen
Grundbegriffe
Diskrete ZV
Stetige ZV
Zx
1
1
e− 2 (
t−µ 2
σ
) dt.
−∞
heißt normalverteilt mit den Parametern (µ, σ 2 ). Die
zugehörige Dichtefunktion hat die Form:
Verteilungsfunktion
6. Diskrete ZV
7. Charakteristika
8. Exponential
f (x) = √
1
2πσ
1
e− 2 (
x−µ 2
σ
),
σ > 0.
201 / 895
Stetige Zufallsvariablen
Beispiele (4b)
Stochastik für
InformatikerInnen
Satz: f (x) ist eine Dichtefunktion
Wolfgang Kössler
Offensichtlich ist f (x) ≥ 0 für alle x ∈ R und σ > 0.
1. Grundbegriffe
Es bleibt zu zeigen
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
Z+∞
Z+∞
1 t−µ 2
√ 1 e − 2 ( σ ) dt = 1.
lim F (x) =
f (t) dt =
2πσ
x→∞
−∞
−∞
Grundbegriffe
Diskrete ZV
Wir bezeichnen
Stetige ZV
Verteilungsfunktion
Z+∞
6. Diskrete ZV
7. Charakteristika
8. Exponential
1
√ 1 e− 2 (
2πσ
x−µ 2
σ
) dx =: I.
−∞
202 / 895
Stetige Zufallsvariablen
Beispiele (4c)
Stochastik für
Wolfgang Kössler
1
I 2 =  √2πσ
1. Grundbegriffe
−∞

1
2πσ 2
  +∞

Z+∞
Z
1 x−µ 2
1 y −µ 2

e− 2 ( σ ) dx  
e− 2 ( σ ) dy 
1
2πσ 2


Z+∞ Z+∞
1 y −µ 2
1 x−µ 2

e− 2 ( σ ) dx  e− 2 ( σ ) dy
2. Kombinatorik
3. Bedingte Wkt
=
−∞
4. Klass. Wkt.
5. Zufallsvariablen
Grundbegriffe
=
Diskrete ZV
−∞
Stetige ZV
Verteilungsfunktion
6. Diskrete ZV
7. Charakteristika
2
Z+∞
1 x−µ 2
e− 2 ( σ ) dx 

InformatikerInnen
=
1
2πσ 2
−∞
−∞
Z+∞ Z+∞
1 x−µ 2
1 y −µ 2
e− 2 ( σ ) e− 2 ( σ ) dx dy
−∞ −∞
8. Exponential
203 / 895
Stetige Zufallsvariablen
Beispiele (4d)
Stochastik für
InformatikerInnen
Substitution: s :=
x−µ
σ
t :=
y −µ
.
σ
Dann gilt:
Wolfgang Kössler
1. Grundbegriffe
x = sσ + µ
y = tσ + µ,
dx = σ ds
dy = σ dt.
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
Grundbegriffe
I2 =
1
2πσ 2
−∞ −∞
Diskrete ZV
Stetige ZV
Verteilungsfunktion
6. Diskrete ZV
7. Charakteristika
8. Exponential
Z+∞ Z+∞
1 2
1 2
e− 2 s e− 2 t σ 2 ds dt
=
1
2π
Z+∞ Z+∞
1 2
2
e− 2 (s +t ) ds dt
−∞ −∞
204 / 895
Stetige Zufallsvariablen
Beispiele (4e)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Wir führen eine weitere Substitution durch,
Polarkoordinaten:
2. Kombinatorik
3. Bedingte Wkt
s = r cos ϕ
t = r sin ϕ.
4. Klass. Wkt.
5. Zufallsvariablen
Grundbegriffe
Diskrete ZV
Stetige ZV
Dann gilt allgemein nach der Substitutionsregel:
Z Z
Z Z
g(s, t) ds dt =
g(r , ϕ) det J dr dϕ,
Verteilungsfunktion
6. Diskrete ZV
7. Charakteristika
8. Exponential
205 / 895
Stetige Zufallsvariablen
Beispiele (4f)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
det J = |J| = 2. Kombinatorik
5. Zufallsvariablen
Grundbegriffe
I
2
=
Stetige ZV
1
2π
∂t
∂ϕ
Z2π Z∞
0
Verteilungsfunktion
6. Diskrete ZV
8. Exponential
∂t
∂r
cos ϕ −r sin ϕ
=
sin ϕ r cos ϕ
= r (cos2 ϕ + sin2 ϕ) = r
4. Klass. Wkt.
7. Charakteristika
∂s
∂ϕ
= r cos2 ϕ + r sin2 ϕ
3. Bedingte Wkt
Diskrete ZV
∂s
∂r
=
1
2π
2
cos2 ϕ+r 2 sin2 ϕ)
r dr dϕ
0
Z2π Z∞
0
1
e− 2 (r
0
1 2
e− 2 r r dr dϕ
206 / 895
Stetige Zufallsvariablen
Beispiele (4g)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
I2 =
2. Kombinatorik
1
2π
3. Bedingte Wkt
4. Klass. Wkt.
=
1
2π
Z2π Z∞
0
0
Z2π
h
1 2
e− 2 r r dr dϕ
r2
−e− 2
0
Grundbegriffe
Diskrete ZV
1
=
2π
Stetige ZV
Verteilungsfunktion
Z2π
dϕ =
1
2π = 1
2π
0
6. Diskrete ZV
8. Exponential
dϕ
0
5. Zufallsvariablen
7. Charakteristika
i∞
=⇒
I = 1, d.h. f ist eine Dichtefunktion.
207 / 895
Zufallsvariable, Grundbegriffe
Zusammenfassung (1)
Stochastik für
InformatikerInnen
Eine Zufallsvariable ist eine (meßbare) Abbildung
Wolfgang Kössler
1. Grundbegriffe
X :
Ω −→ R
2. Kombinatorik
Jedem Element ω des Stichprobenraumes Ω wird
3. Bedingte Wkt
eine reelle Zahl zugeordnet.
4. Klass. Wkt.
Die Zufallsvariable X heißt diskret, wenn X nur
5. Zufallsvariablen
endlich viele oder abzählbar unendlich viele Werte xi
Grundbegriffe
Diskrete ZV
Stetige ZV
Verteilungsfunktion
annehmen kann. Jeder dieser Werte kann mit einer
gewissen Wkt. pi = P(X = xi ) auftreten.
6. Diskrete ZV
7. Charakteristika
8. Exponential
geografische Lage (N,O,S,W); Länge einer
Warteschlange; Anzahl der Punkte in der Klausur.
208 / 895
Zufallsvariable, Grundbegriffe
Zusammenfassung (2)
Stochastik für
InformatikerInnen
Die Zufallsvariable X heißt stetig, falls X beliebige
Wolfgang Kössler
Werte in einem Intervall (a, b), [a, b], (a, b], (a, b],
1. Grundbegriffe
(−∞, a), (b, ∞), (−∞, a], [b, ∞), (−∞, ∞) annehmen
2. Kombinatorik
kann.
3. Bedingte Wkt
Bem.: Jeder einzelne Wert xi ∈ (a, b) (oder in einem
4. Klass. Wkt.
5. Zufallsvariablen
Grundbegriffe
der anderen Intervalle) hat die Wkt. Null.
Die Verteilungsfunktion F wird dann durch die
Diskrete ZV
Stetige ZV
Verteilungsfunktion
6. Diskrete ZV
7. Charakteristika
8. Exponential
sogen. Dichtefunktion f beschrieben,
Z
F (x) = P(X < x) = P(X ≤ x) =
x
f (t) dt
−∞
209 / 895
Inhalt
Stochastik für
InformatikerInnen
Wolfgang Kössler
5.1 Grundbegriffe
1. Grundbegriffe
2. Kombinatorik
5.2 Diskrete Zufallsvariablen
3. Bedingte Wkt
5.3 Stetige Zufallsvariablen
4. Klass. Wkt.
5.4 Allgemeine Eigenschaften einer
5. Zufallsvariablen
Verteilungsfunktion
Grundbegriffe
Diskrete ZV
Stetige ZV
Verteilungsfunktion
6. Diskrete ZV
7. Charakteristika
8. Exponential
210 / 895
5.4 Allgemeine Eigenschaften einer
Verteilungsfunktion
Stochastik für
InformatikerInnen
Wolfgang Kössler
Satz: Sei X eine Zufallsariable mit
der Verteilungsfunktion
1. Grundbegriffe
2. Kombinatorik
F (x) = P(X < x) = P({ω : X (ω) < x}) = PX ((−∞, x)).
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
Dann gelten die folgenden Aussagen:
1
Die Funktion F (x) ist monoton wachsend.
Grundbegriffe
Diskrete ZV
2
Verteilungsfunktion
3
6. Diskrete ZV
x→+∞
Die Funktion F (x) ist linksseitig stetig. Es gilt
also: lim F (x) = F (x0 ).
x→x0 −
7. Charakteristika
8. Exponential
lim F (x) = 0, lim F (x) = 1.
x→−∞
Stetige ZV
4
P(a ≤ X < b) = F (b) − F (a).
211 / 895
Eigenschaften der Verteilungsfunktion
Beweis des Satzes (1)
Stochastik für
InformatikerInnen
1
Es sei x1 < x2 < x. Wir definieren zwei Mengen:
Wolfgang Kössler
A := {ω : X (ω) < x1 },
1. Grundbegriffe
B := {ω : X (ω) < x2 }.
2. Kombinatorik
3. Bedingte Wkt
Dann gilt:
4. Klass. Wkt.
5. Zufallsvariablen
Grundbegriffe
Diskrete ZV
F (x1 ) = P({ω : X (ω) < x1 }) = P(A),
F (x2 ) = P({ω : X (ω) < x2 }) = P(B).
Stetige ZV
Verteilungsfunktion
6. Diskrete ZV
7. Charakteristika
8. Exponential
Wegen A ⊆ B folgt: P(A) ≤ P(B), d.h.
F (x1 ) ≤ F (x2 ),
d.h. die Funktion F (x) monoton wachsend.
212 / 895
Eigenschaften der Verteilungsfunktion
Beweis des Satzes (2)
Stochastik für
InformatikerInnen
2
Sei (xn ) eine monoton fallende Folge mit
Wolfgang Kössler
xn → −∞ und (yn ) eine monoton wachsende
1. Grundbegriffe
Folge mit yn → ∞. Wir definieren:
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
Grundbegriffe
Diskrete ZV
Stetige ZV
Verteilungsfunktion
6. Diskrete ZV
An := {ω : X (ω) < xn },
Bn := {ω : X (ω) < yn }.
Für die Folgen (An ) und Bn ) gilt:
(An ) ist monoton fallend (An ⊇ An+1 , ∀n ∈ N),
(Bn ) monoton wachsend (Bn ⊆ Bn+1 , ∀n ∈ N).
Offensichtlich gilt:
7. Charakteristika
8. Exponential
F (xn ) = P(An ),
F (yn ) = P(Bn ).
213 / 895
Eigenschaften der Verteilungsfunktion
Beweis des Satzes (3)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
Wegen der Stetigkeit der Wkt. von oben und unten ist
lim P(An ) = P( lim An ) = P(X < −∞) = 0.
n→∞
n→∞
lim P(Bn ) = P( lim Bn ) = P(X < +∞) = 1.
n→∞
n→∞
4. Klass. Wkt.
5. Zufallsvariablen
Das bedeutet jedoch nichts anderes als:
Grundbegriffe
Diskrete ZV
Stetige ZV
lim F (x) = lim F (xn ) = 0,
x→−∞
n→∞
Verteilungsfunktion
6. Diskrete ZV
lim F (x) = lim F (yn ) = 1.
x→+∞
n→∞
7. Charakteristika
8. Exponential
214 / 895
Eigenschaften der Verteilungsfunktion
Beweis des Satzes (4)
Stochastik für
InformatikerInnen
3
Wir definieren eine Menge
Wolfgang Kössler
A = {ω : X (ω) < x0 }
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
und eine Folge von Mengen
An = {ω : X (ω) < xn },
4. Klass. Wkt.
5. Zufallsvariablen
Grundbegriffe
Diskrete ZV
Stetige ZV
Verteilungsfunktion
6. Diskrete ZV
7. Charakteristika
8. Exponential
wobei (xn ) eine monotone Folge ist, die von links
gegen x0 konvergiert (xn −→ x0 − 0). Offenbar
ist die Folge (An ) monoton wachsend
(An ⊆ An+1 ). Außerdem gilt:
lim An = A.
n→∞
215 / 895
Eigenschaften der Verteilungsfunktion
Beweis des Satzes (5)
Stochastik für
InformatikerInnen
Dann können wir schlußfolgern:
Wolfgang Kössler
1. Grundbegriffe
lim F (xn ) =
n→∞
=
2. Kombinatorik
lim P(X < xn )
n→∞
lim P(An )
n→∞
= P( lim An )
3. Bedingte Wkt
n→∞
4. Klass. Wkt.
= P(A) = P(X < x0 )
5. Zufallsvariablen
= F (x0 )
Grundbegriffe
Diskrete ZV
Stetige ZV
Verteilungsfunktion
Das bedeutet aber:
6. Diskrete ZV
7. Charakteristika
8. Exponential
lim F (x) = F (x0 ).
x→x0 −
216 / 895
Eigenschaften der Verteilungsfunktion
Beweis des Satzes (6)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
4
Es gilt:
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
Grundbegriffe
Diskrete ZV
Stetige ZV
P(a ≤ X < b) = P({X < b} \ {X < a})
= P(X < b) − P(X < a)
(Subtraktivität (vgl. Folgerung 2)
= F (b) − F (a)
Verteilungsfunktion
6. Diskrete ZV
7. Charakteristika
8. Exponential
217 / 895
Inhalt
Stochastik für
InformatikerInnen
Wolfgang Kössler
6.1 Allgemeine Übersicht
1. Grundbegriffe
2. Kombinatorik
6.2 Binomialverteilung
3. Bedingte Wkt
6.3 Geometrische Verteilung
4. Klass. Wkt.
6.4 Poisson-Verteilung
5. Zufallsvariablen
6.5 Negative Binomialverteilung
6. Diskrete ZV
Allgemeine Übersicht
Binomialverteilung
Geometrische Verteilung
Poisson-Verteilung
Negative Binomial
7. Charakteristika
218 / 895
6. Diskrete zufällige Variablen
6.1 Allgemeine Übersicht
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
Erinnerung: Wir beschreiben diskrete
Zufallsvariablen durch


x1 x2 x3 · · · xn · · ·

X :
p1 p2 p3 · · · pn · · ·
3. Bedingte Wkt
4. Klass. Wkt.
pi = P(X = xi ) > 0,
i = 1, 2, 3, . . .
5. Zufallsvariablen
6. Diskrete ZV
Allgemeine Übersicht
Binomialverteilung
Geometrische Verteilung
Poisson-Verteilung
∞
X
pi = 1
i=1
Def. 18 (Wahrscheinlichkeitsfunktion, Zähldichte)
Die Funktion
f (xi ) = pi
Negative Binomial
7. Charakteristika
heißt Wahrscheinlichkeitsfunktion.
219 / 895
Allgemeine Übersicht
Binomialwahrscheinlichkeit
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
a) Zweimaliges Werfen einer Münze


0 1 2
Ω = ZZ , ZB, BZ , BB

X :
1
1
1
X := Anzahl von Blatt
4
2. Kombinatorik
2
4
4. Klass. Wkt.
b) Erfolge bei n Versuchen
X : Anzahl der “Erfolge” bei n Versuchen, wobei jeder
5. Zufallsvariablen
der n Versuche eine Erfolgswahrscheinlichkeit p hat.
3. Bedingte Wkt
6. Diskrete ZV
Allgemeine Übersicht
Binomialverteilung
Geometrische Verteilung
Poisson-Verteilung
Negative Binomial
7. Charakteristika
n k
p (1 − p)n−k Binomialwkt.
P(X = k) =
k
k −1 X
n i
FX (k) = P(X < k) =
p (1 − p)n−i
i
i=0
220 / 895
Binomialwahrscheinlichkeit
Beispiele (1)
Stochastik für
InformatikerInnen
Wolfgang Kössler
Es seien p =
1
2
und n = 5. Für x = 2.5 gilt:
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
Allgemeine Übersicht
Binomialverteilung
Geometrische Verteilung
Poisson-Verteilung
Negative Binomial
F (2.5) =
X
pi
i : i<2,5
= p0 + p1 + p2
5 5 5
1
5
1
5
1
5
+
+
=
0
2
1
2
2
2
1
5
10
=
+
+
32 32 32
= 0.5
7. Charakteristika
221 / 895
Binomialwahrscheinlichkeit
Beispiele (2)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
Würfeln 20 mal. Wie groß ist die Wkt. für mindestens
4 Sechsen?
X : Anzahl der Sechsen.
P(X ≥ 4) = 1 − P(X < 4) = 1 − FX (4)
3
X
= 1−
P(X = i) =
i=0
5. Zufallsvariablen
6. Diskrete ZV
Allgemeine Übersicht
1−
Binomialverteilung
Geometrische Verteilung
Poisson-Verteilung
Negative Binomial
7. Charakteristika
≈ 0.43.
5 20
1 5 19 20 · 19 1 2 5 18
− 20
−
−
6
6 6
2
6
6
20 · 19 · 18 1 3 5 17
−
6
6
6
222 / 895
Poisson-Wahrscheinlichkeit
Beispiel
Stochastik für
InformatikerInnen
Telefonzentrale, X ∼ Poi(λ)
Wolfgang Kössler
X : Anzahl der Anrufe, die pro Zeiteinheit von einer
1. Grundbegriffe
Telefonzentrale vermittelt werden.


0 1 2 3 ···

X :
p0 p1 p2 p3 · · ·
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
P(X = i) = pi =
Allgemeine Übersicht
Binomialverteilung
Geometrische Verteilung
∞
X
Poisson-Verteilung
Negative Binomial
7. Charakteristika
i=0
pi =
λi −λ
e ,
i!
∞
X
λi
i!
|i=0{z }
λ>0
e−λ = 1.
223 / 895
Binomial und Poisson
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
Satz: Seien Xn ∼ Bi(n, p), Y ∼ Poi(λ)
Für
n · p = λ gilt:
=
6. Diskrete ZV
Allgemeine Übersicht
Binomialverteilung
=
Geometrische Verteilung
Poisson-Verteilung
Negative Binomial
7. Charakteristika
P(Xn = k) −→n→∞ P(Y = k).
n k
P(Xn = k) =
p (1 − p)n−k
k
n(n − 1) · · · (n − k + 1) λ k
λ
=
( ) (1 − )n−k
k!
n
n
=
n(n − 1) · · · (n − k + 1) (n − λ)k λk (n − λ)n−k
k!(n − λ)k
nk
nn−k
1 n(n − 1) · · · (n − k + 1) k
λ
λ (1 − )n
k
k!
n
(n − λ)
|
{z
} | {z }
−→ 1
λk −λ
e = P(Y = k)
k!
−→ e−λ
224 / 895
Geometrische Verteilung
Stochastik für
InformatikerInnen
d) Münzwurf solange bis B(Blatt) kommt
Wolfgang Kössler
Ω = {B, ZB, ZZB, ...}
1. Grundbegriffe
X := Anzahl der Würfe bis zum ersten Blatt.


1 2
3
4 ··· n ···

X =
1
1 2
1 3
1 4
1 n
(2) (2) (2) · · · (2) · · ·
2
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
∞
X
Allgemeine Übersicht
Binomialverteilung
Geometrische Verteilung
Poisson-Verteilung
i=1
pi =
∞
X
i=1
(1/2)i =
1
1−
1
2
−1=1
geometrische Reihe
Negative Binomial
7. Charakteristika
geometrische Verteilung mit p=1/2, pi = (1/2)i .
225 / 895
Geometrische Verteilung
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
Def. 19 (Geometrische Verteilung)
Eine Zufallsvariable X mit
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
P(X = i) = p(1 − p)i−1 ,
i = 1, 2, . . .
heißt geometrisch verteilt, bez. X ∼ Geo(p)
6. Diskrete ZV
Allgemeine Übersicht
Binomialverteilung
Anzahl der Schritte bis zum ersten “Erfolg”.
Geometrische Verteilung
Poisson-Verteilung
Negative Binomial
7. Charakteristika
226 / 895
Geometrische Verteilung
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
Allgemeine Übersicht
Binomialverteilung
Geometrische Verteilung
Poisson-Verteilung
Negative Binomial
7. Charakteristika
227 / 895
Hypergeometrische Verteilung
Stochastik für
InformatikerInnen
Wolfgang Kössler
e) Qualitätskontrolle
Gegeben sei eine Grundgesamtheit (z.B. eine
1. Grundbegriffe
Warenlieferung) mit N Stücken, von denen genau n
2. Kombinatorik
schlecht seien. Wie groß ist die Wkt., daß in einer
3. Bedingte Wkt
Stichprobe vom Umfang m höchstens k Stück
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
schlecht sind?
X : zufällige Anzahl der schlechten Stücke in der
Allgemeine Übersicht
Binomialverteilung
Stichprobe.
Geometrische Verteilung
Poisson-Verteilung
Negative Binomial
7. Charakteristika
P(X = x) =
n
x
·
N−n
m−x
N
m
228 / 895
Hypergeometrische Verteilung
Fortsetzung
Stochastik für
InformatikerInnen
N
m
:
# möglichen Stichproben.
n
x
:
# Möglichkeiten, aus n schlechten Stücken in
Wolfgang Kössler
1. Grundbegriffe
der Grundgesamtheit x schlechte Stücke
2. Kombinatorik
zu ziehen.
3. Bedingte Wkt
4. Klass. Wkt.
N−n
m−x
:
# Möglichkeiten, aus N − n guten Stücken
5. Zufallsvariablen
in der Grundgesamtheit m − x gute Stücke
6. Diskrete ZV
zu ziehen.
Allgemeine Übersicht
Binomialverteilung
Geometrische Verteilung
Poisson-Verteilung
Negative Binomial
7. Charakteristika
Offenbar:
0 ≤ x ≤ min(n, m)
m − x ≤ N − n.
229 / 895
Hypergeometrische Verteilung
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
Def. 20 (Hypergeometrische Verteilung)
Eine Zufallsvariable X mit der Wkt.funktion
N−n n
·
f (x|HN,n,m ) = x N m−x
m
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
Allgemeine Übersicht
Binomialverteilung
Geometrische Verteilung
Poisson-Verteilung
Negative Binomial
7. Charakteristika
heißt hypergeometrisch verteilt.
Bez.: X ∼ HN,n,m . Verteilungsfunktion:
N−n k −1 n
X
· m−x
x
F (k|HN,n,m ) =
N
x=0
∞, Nn →
m
Satz: Für N → ∞, n →
p gilt:
m x
f (x|HN,n,m ) →
p (1 − p)m−x = f (x|Bi(m, p))
x
230 / 895
Hypergeometrische Verteilung
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
Allgemeine Übersicht
Binomialverteilung
Geometrische Verteilung
Poisson-Verteilung
Negative Binomial
7. Charakteristika
231 / 895
Inhalt
Stochastik für
InformatikerInnen
Wolfgang Kössler
6.1 Allgemeine Übersicht
1. Grundbegriffe
2. Kombinatorik
6.2 Binomialverteilung
3. Bedingte Wkt
6.3 Geometrische Verteilung
4. Klass. Wkt.
6.4 Poisson-Verteilung
5. Zufallsvariablen
6.5 Negative Binomialverteilung
6. Diskrete ZV
Allgemeine Übersicht
Binomialverteilung
Geometrische Verteilung
Poisson-Verteilung
Negative Binomial
7. Charakteristika
232 / 895
6.2 Binomialverteilung
Weitere Beispiele (1)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Kommunikationskanal
Schicken Binärzahlen durch einen
2. Kombinatorik
Kommunikationskanal.
3. Bedingte Wkt
p: Wkt. einer fehlerhaften Übertragung
4. Klass. Wkt.
n: Anzahl der übertragenen Zeichen
5. Zufallsvariablen
6. Diskrete ZV
Allgemeine Übersicht
Binomialverteilung
Geometrische Verteilung
Wkt. für genau i Fehler:
n i
P(i) =
p (1 − p)n−i =: b(i; n, p)
i
Poisson-Verteilung
Negative Binomial
7. Charakteristika
233 / 895
Binomialverteilung
Weitere Beispiele (2)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Qualitätskontrolle
Stichprobe (hier: mit Zurücklegen) von 10
2. Kombinatorik
Computerchips aus einer sehr großen Lieferung
3. Bedingte Wkt
(Los). Wenn keine defekt, so wird die Lieferung
4. Klass. Wkt.
angenommen, sonst nicht.
5. Zufallsvariablen
6. Diskrete ZV
Allgemeine Übersicht
p: Wkt., ein zufällig ausgewählter Chip ist defekt.
Wkt. für genau i defekte Stücke = b(i; 10, p).
Binomialverteilung
Geometrische Verteilung
Poisson-Verteilung
P(Los angenommen) = (1 − p)10
Negative Binomial
7. Charakteristika
234 / 895
Binomialverteilung
Weitere Beispiele (3)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
k aus n Systeme
Jede Komponente habe die Intaktwkt. p.
Wkt., daß genau i Komponenten ausfallen:
n n−i
p (1 − p)i
P(X = i) =
i
Wkt., daß höchstens k Komponenten ausfallen:
6. Diskrete ZV
Allgemeine Übersicht
Binomialverteilung
Geometrische Verteilung
Poisson-Verteilung
Negative Binomial
7. Charakteristika
k X
n
pn−i (1 − p)i
i
i=0
n
X
n i
=
p (1 − p)n−i
i
P(X ≤ k) =
i=n−k
235 / 895
Inhalt
Stochastik für
InformatikerInnen
Wolfgang Kössler
6.1 Allgemeine Übersicht
1. Grundbegriffe
2. Kombinatorik
6.2 Binomialverteilung
3. Bedingte Wkt
6.3 Geometrische Verteilung
4. Klass. Wkt.
6.4 Poisson-Verteilung
5. Zufallsvariablen
6.5 Negative Binomialverteilung
6. Diskrete ZV
Allgemeine Übersicht
Binomialverteilung
Geometrische Verteilung
Poisson-Verteilung
Negative Binomial
7. Charakteristika
236 / 895
6.3 Geometrische Verteilung (1)
Stochastik für
InformatikerInnen
Sei Y ∼ Geo(p), d.h.
Wolfgang Kössler
1. Grundbegriffe
P(Y > s) = 1 −
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
P(Y > t) = 1 −
s
X
i=1
t
X
(1 − p)i−1 · p = (1 − p)s
(1 − p)i−1 · p = (1 − p)t
i=1
5. Zufallsvariablen
6. Diskrete ZV
Allgemeine Übersicht
Binomialverteilung
Geometrische Verteilung
Poisson-Verteilung
Negative Binomial
7. Charakteristika
P(Y > s) · P(Y > t) = (1 − p)s+t
s+t
X
= 1−
(1 − p)i−1 · p
i=1
= P(Y > s + t).
237 / 895
Geometrische Verteilung (2)
Stochastik für
InformatikerInnen
Wolfgang Kössler
also:
P(Y > s + t, Y > t)
P(Y > t)
P(Y > s + t)
=
P(Y > t)
= P(Y > s)
Def. 21 (Markov-Eigenschaft, Gedächtnislosigkeit)
Verteilungen mit der Markov-Eigenschaft
P(Y > s + t|Y > t) =
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
Allgemeine Übersicht
Binomialverteilung
Geometrische Verteilung
P(Y > s + t|Y > t) = P(Y > s)
Poisson-Verteilung
Negative Binomial
7. Charakteristika
heißen gedächtnislos.
238 / 895
Geometrische Verteilung (3)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Satz: Sei X diskrete Zufallsvariable mit Werten in N+
und X habe die Markov-Eigenschaft. Dann ist
X ∼ Geo(p) für ein p, p ∈ (0, 1)
2. Kombinatorik
3. Bedingte Wkt
Beweis: Sei
1
X :
4. Klass. Wkt.
2
3
...


p1 p2 p3 . . .
5. Zufallsvariablen
6. Diskrete ZV

Aus der Markov-Eigenschaft folgt:
Allgemeine Übersicht
Binomialverteilung
Geometrische Verteilung
Poisson-Verteilung
Negative Binomial
7. Charakteristika
P(X > s) · P(X > t) = P(X > s + t) ∀s, t
s
t
s+t
X
X
X
(1 −
pi )(1 −
pi ) = 1 −
pi
i=1
i=1
i=1
239 / 895
Geometrische Verteilung (4)
Stochastik für
InformatikerInnen
Wolfgang Kössler
Setzen p := p1 . Einsetzen von
1. Grundbegriffe
2. Kombinatorik
s = 1, t = 1 liefert (1 − p)2 = (1 − p − p2 );
p2 = p(1 − p).
3. Bedingte Wkt
4. Klass. Wkt.
s = 1, t = 2 liefert
5. Zufallsvariablen
6. Diskrete ZV
Allgemeine Übersicht
(1 − p)(1 − p − p2 ) = (1 − p − p2 − p3 );
(1 − p − p2 )(1 − p − 1) = −p3 ;
also p3 = p(1 − p)2
Binomialverteilung
Geometrische Verteilung
usw.
Poisson-Verteilung
Negative Binomial
7. Charakteristika
240 / 895
Geometrische Verteilung (5)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
Qualitätskontrolle
Wkt., daß das i-te Item das erste defekte ist.
Time-sharing computer system
mit festen Zeitscheiben.
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
Allgemeine Übersicht
Programm wird in der Zeitscheibe vollständig
abgearbeitet mit Wkt. p
Wenn nicht, neuer Versuch in der neuen Zeitscheibe
Binomialverteilung
Geometrische Verteilung
Poisson-Verteilung
X : # benötigten Zeitscheiben
Negative Binomial
7. Charakteristika
X ∼ Geo(p).
241 / 895
Geometrische Verteilung (6)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
Repeat-Schleife
A: aussagenlogischer Ausdruck, A = true mit Wkt. p.
4. Klass. Wkt.
repeat S until A.
5. Zufallsvariablen
X = # der Durchläufe von S: ∼ Geo(p).
6. Diskrete ZV
Allgemeine Übersicht
Binomialverteilung
Geometrische Verteilung
Poisson-Verteilung
Negative Binomial
7. Charakteristika
242 / 895
Inhalt
Stochastik für
InformatikerInnen
Wolfgang Kössler
6.1 Allgemeine Übersicht
1. Grundbegriffe
2. Kombinatorik
6.2 Binomialverteilung
3. Bedingte Wkt
6.3 Geometrische Verteilung
4. Klass. Wkt.
6.4 Poisson-Verteilung
5. Zufallsvariablen
6.5 Negative Binomialverteilung
6. Diskrete ZV
Allgemeine Übersicht
Binomialverteilung
Geometrische Verteilung
Poisson-Verteilung
Negative Binomial
7. Charakteristika
243 / 895
6.4 Poisson-Verteilung
Vorbemerkung, Definition Unabhängigkeit von Zufallsvariablen
Stochastik für
InformatikerInnen
Wolfgang Kössler
Erinnerung: Unabhängigkeit von Ereignissen
Die Ereignisse A und B heißen unabhängig, falls
1. Grundbegriffe
P(A, B) = P(A) · P(B)
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
Allgemeine Übersicht
Binomialverteilung
Geometrische Verteilung
Def. 22 (Unabhängigkeit von Zufallsvariablen)
Zwei Zufallsvariablen X und Y heißen unabhängig,
falls
Poisson-Verteilung
Negative Binomial
7. Charakteristika
∀A, B ∈ B;
P(X ∈ A, Y ∈ B) = P(X ∈ A) · P(X ∈ B)
244 / 895
Poisson-Verteilung (2)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Sei {Nt }t∈T eine Menge von Zufallsvariablen (ein
stochastischer Prozeß ) mit folgenden Eigenschaften:
V1:
Zuwächse sind unabhängig, dh. die Zufallsvariablen
2. Kombinatorik
Nt+h − Nt und Nt − Nt−h sind unabhängig.
3. Bedingte Wkt
4. Klass. Wkt.
V2:
5. Zufallsvariablen
es ist egal wo wir Zeitintervall betrachten, dh.
Nt+h und Nt haben dieselbe Verteilung
6. Diskrete ZV
Allgemeine Übersicht
V3:
Wkt., daß mindestens ein Ereignis in der Zeit h
Binomialverteilung
eintritt, z.B. ein Kunde ankommt.
Geometrische Verteilung
Poisson-Verteilung
p(h) = a · h + o(h),
Negative Binomial
a > 0, h → 0
7. Charakteristika
V4:
Wkt. für ≥ 2 Ereignisse in der Zeit h: o(h)
245 / 895
Poisson-Verteilung (3)
Stochastik für
InformatikerInnen
Frage: Wkt. daß bis zum Zeitpunkt t genau k
Wolfgang Kössler
Ereignisse eintreten? (z.B. eingetroffene Kunden,
1. Grundbegriffe
zerfallene Teilchen)
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
Pk (t) := P(N
= k),
∞ t
X
p(h) :=
Pk (h)
5. Zufallsvariablen
6. Diskrete ZV
Allgemeine Übersicht
1 =
k∞
=1
X
Pk (t) := 0
für k < 0
≥ 1Ereignis tritt ein
Pk (t)
k=0
Binomialverteilung
Geometrische Verteilung
Poisson-Verteilung
Negative Binomial
7. Charakteristika
V 3 ⇒ P0 (h) = 1 − p(h) = 1 − ah + o(h)
∞
X
V4 ⇒
Pk (h) = o(h),
(h → 0)
k =2
246 / 895
Poisson-Verteilung (4)
Stochastik für
InformatikerInnen
1. Schritt: Bestimmen P0 (t).
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
P0 (t + h) = P(Nt = 0, Nt+h − Nt = 0)
= P0 (t)P(Nt+h − Nt = 0) wegen V1
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
Allgemeine Übersicht
Binomialverteilung
Geometrische Verteilung
= P0 (t)P(Nh − N0 = 0) wegen V2
= P0 (t)P0 (h) wegen N0 = 0
= P0 (t)(1 − p(h))
= P0 (t)(1 − ah + o(h)) wegen V4
Poisson-Verteilung
Negative Binomial
7. Charakteristika
247 / 895
Poisson-Verteilung (5)
Stochastik für
InformatikerInnen
Nacheinander folgt:
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
P0 (t + h) − P0 (t)
o(h)
= P0 (t)(−a +
)
h
h
o(h)
P0 (t + h) − P0 (t)
= lim P0 (t)(−a +
)
lim
h→0
h→0
h
h
P00 (t) = −aP0 (t)
P0 (t) = ce−at
6. Diskrete ZV
Allgemeine Übersicht
Binomialverteilung
Wegen P0 (0) = 1 folgt: c = 1 und
Geometrische Verteilung
Poisson-Verteilung
Negative Binomial
P0 (t) = e−at
7. Charakteristika
248 / 895
Poisson-Verteilung (6)
Stochastik für
InformatikerInnen
Wolfgang Kössler
2. Schritt: Bestimmen Pk (t).
1. Grundbegriffe
Zerlegen das Ereignis {Nt+h = k} in disjunkte
2. Kombinatorik
Teilereignisse.
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
Allgemeine Übersicht
{Nt+h = k} = {Nt = 0, Nt+h − Nt = k} ∪
{Nt = 1, Nt+h − Nt = k − 1} ∪
{Nt = 2, Nt+h − Nt = k − 2} ∪ . . . ∪
Binomialverteilung
Geometrische Verteilung
{Nt = k, Nt+h − Nt = 0}
Poisson-Verteilung
Negative Binomial
7. Charakteristika
249 / 895
Poisson-Verteilung (7)
Stochastik für
InformatikerInnen
Pk (t + h) =
Wolfgang Kössler
1. Grundbegriffe
=
=
4. Klass. Wkt.
k
X
j=0
5. Zufallsvariablen
6. Diskrete ZV
=
k
X
Allgemeine Übersicht
Binomialverteilung
P(Nt = k − j, Nt+h − Nt = j)
j=0
2. Kombinatorik
3. Bedingte Wkt
k
X
Pk−j (t) P(Nt+h − Nt = j)
{z
}
|
=P(Nh −N0 =j)
Pk −j (t)Pj (h) wegen V2
j=0
Geometrische Verteilung
Poisson-Verteilung
Negative Binomial
7. Charakteristika
wegen V1
= Pk (t)P0 (h) + Pk −1 (t)P1 (h) +
k
X
Pk −j (t)Pj (h)
j=2
250 / 895
Poisson-Verteilung (8)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
P1 (h) =
2. Kombinatorik
∞
X
Pj (h) −
j=1
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
= ah + o(h)
Allgemeine Übersicht
∞
X
Binomialverteilung
Geometrische Verteilung
j=2
Pk −j (t)Pj (h) ≤
∞
X
Pj (h)
j=2
= p(h) + o(h)
6. Diskrete ZV
∞
X
Pj (h) = o(h) wegen V2
j=2
Poisson-Verteilung
Negative Binomial
7. Charakteristika
251 / 895
Poisson-Verteilung (9)
Stochastik für
InformatikerInnen
Wolfgang Kössler
Nacheinander folgt:
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
Allgemeine Übersicht
Binomialverteilung
Geometrische Verteilung
Pk (t + h) − Pk (t) = (P0 (h) − 1)Pk (t) + Pk −1 (t)P1 (h)
+o(h)
= −ahPk (t) + ahPk −1 (t) + o(h)
Pk (t + h) − Pk (t)
o(h)
= −aPk (t) + aPk −1 (t) +
h
h
Pk0 (t) = −aPk (t) + aPk −1 (t),
Pk (0) = 0
Poisson-Verteilung
Negative Binomial
7. Charakteristika
252 / 895
Poisson-Verteilung (10)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
Qk (t) := Pk (t)eat
Qk0 (t) = Pk0 (t)eat + Pk (t)aeat
Qk0 (t) = eat (−aPk (t) + aPk −1 (t) +aPk (t))
|
{z
}
Pk0 (t)
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
Allgemeine Übersicht
Binomialverteilung
= aQk −1 (t)
Q10 (t)
= aQ0 (t) = ae−at eat = a ⇒ Q1 (t) = at
a2 t 2
Q20 (t) = aQ1 (t) = a2 t ⇒ Q2 (t) =
2
Durch vollständige Induktion:
Geometrische Verteilung
Poisson-Verteilung
Negative Binomial
7. Charakteristika
ak t k
ak t k −at
Pk (t) =
e
k!
k!
Poisson-Verteilung mit Parameter λ = at.
Qk (t) =
253 / 895
Inhalt
Stochastik für
InformatikerInnen
Wolfgang Kössler
6.1 Allgemeine Übersicht
1. Grundbegriffe
2. Kombinatorik
6.2 Binomialverteilung
3. Bedingte Wkt
6.3 Geometrische Verteilung
4. Klass. Wkt.
6.4 Poisson-Verteilung
5. Zufallsvariablen
6.5 Negative Binomialverteilung
6. Diskrete ZV
Allgemeine Übersicht
Binomialverteilung
Geometrische Verteilung
Poisson-Verteilung
Negative Binomial
7. Charakteristika
254 / 895
6.5 Negative Binomialverteilung
Anzahl der Versuche bis zum m-ten “Erfolg”
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
Def. 23 (Negative Binomialverteilung)
Eine Zufallsvariable X mit der Wkt.funktion
m+k −1 m
P(X = m + k) =
p (1 − p)k
m−1
heißt negativ Binomialverteilt mit Parametern (m, p)
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
Allgemeine Übersicht
Qualitätskontrolle
Prüfen solange bis wir m defekte Stücke entdecken.
Wenn m + k “klein” → Los ablehnen
Binomialverteilung
Geometrische Verteilung
Wenn m + k “groß” → Los annehmen
Poisson-Verteilung
Negative Binomial
7. Charakteristika
(hier kann die Prüfung evtl. vorzeitig abgebrochen
werden.)
255 / 895
Negative Binomialverteilung (2)
Stochastik für
InformatikerInnen
Diese Verteilung entsteht auch, wenn man
Wolfgang Kössler
Poisson-Verteilung mit einer Gamma-Verteilung
1. Grundbegriffe
mischt.
2. Kombinatorik
Deshalb wird sie verwendet, wenn sich Zähldaten
3. Bedingte Wkt
aus verschiedenen Quellen zusammensetzen (und
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
Allgemeine Übersicht
Poisson nicht geeignet scheint).
File-Dokumentenserver
Die Gesamt-Anzahl der Zugriffe auf ein bestimmtes
Binomialverteilung
Geometrische Verteilung
Dokument setzt sich aus Teil-Anzahlen von
Poisson-Verteilung
Negative Binomial
7. Charakteristika
vielfältigen Zugriffen aus verschiedenartigen Quellen
zusammen.
256 / 895
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Bem: In den Wahrscheinlichkeiten können Parameter
2. Kombinatorik
3. Bedingte Wkt
auftreten, die in der Regel unbekannt sind.
4. Klass. Wkt.
Die Parameter sind anhand der Beobachtungen
5. Zufallsvariablen
(der Daten) zu bestimmen/zu schätzen!
6. Diskrete ZV
−→ Aufgabe der Statistik
Allgemeine Übersicht
Binomialverteilung
Geometrische Verteilung
Poisson-Verteilung
Negative Binomial
7. Charakteristika
257 / 895
Inhalt
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
7.1 Der Erwartungswert
2. Kombinatorik
7.2 Moment und Varianz
3. Bedingte Wkt
7.3 Schiefe und Exzess
4. Klass. Wkt.
7.4 Charakteristische Funktionen
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
Der Erwartungswert
Moment und Varianz
Schiefe und Exzess
Charakteristische Fkt.
8. Exponential
258 / 895
7. Charakteristika von
Verteilungsfunktionen
Stochastik für
InformatikerInnen
Wolfgang Kössler
Eine Münze wird 3 mal geworfen.
Wie oft können wir erwarten, daß Blatt oben liegt?
1. Grundbegriffe
2. Kombinatorik
Wie oft wird im Mittel Blatt oben liegen?
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen

X :
0
1
2
3



1/8 3/8 3/8 1/8
6. Diskrete ZV
7. Charakteristika
Der Erwartungswert
Moment und Varianz
Schiefe und Exzess
Erwartungswert: 0 ·
1
8
+1·
3
8
+2·
3
8
+3·
1
8
=
12
8
= 1.5
D.h. bei 10maliger Durchführung des Experiments
können wir im Mittel mit 15mal Blatt rechnen.
Charakteristische Fkt.
8. Exponential
259 / 895
7.1 Der Erwartungswert
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
Sei X diskrete Zufallsvariable,


x1 ... xn ...

X :
p1 ... pn ...
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
Def. 24 (Erwartungswert, X diskret)
Die reele Zahl
∞
X
EX =
pi xi
Der Erwartungswert
Moment und Varianz
Schiefe und Exzess
Charakteristische Fkt.
8. Exponential
i=1
heißt Erwartungswert von X
260 / 895
Der Erwartungswert
Beispiele (1)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
a)
X ∼ Poisson(λ)


0 1 2 3 ...

X :
p0 p1 p2 p3 ...
3. Bedingte Wkt
pi =
4. Klass. Wkt.
λi −λ
e
i!
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
Der Erwartungswert
EX =
∞
X
i=0
pi i =
∞
X
λi
i=0
i!
e
−λ
Moment und Varianz
∞
X
λi−1
·i =λ
e−λ = λ.
(i − 1)!
|i=1 {z
}
eλ
Schiefe und Exzess
Charakteristische Fkt.
8. Exponential
z.B. mittlere Ankunftsrate.
261 / 895
Der Erwartungswert
Beispiele (2)
Stochastik für
InformatikerInnen
b)
X ∼ B(n, p)
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
Der Erwartungswert
Moment und Varianz
Schiefe und Exzess
Charakteristische Fkt.
8. Exponential
n
X
n k
EX =
k
p · (1 − p)n−k
k
k =0
n
X
n!
pk −1 (1 − p)n−k
(k − 1)!(n − k)!
k =1
n X
n − 1 k −1
p (1 − p)n−k
= p·n
k −1
k =1
n−1 X
n−1 i
= p·n
p (1 − p)n−1−i ,
k =i +1
i
i=0
= n · p.
262 / 895
= p
Der Erwartungswert
Beispiele (3)
Stochastik für
InformatikerInnen
c)
X ∼ Geo(p)
Wolfgang Kössler

1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
6. Diskrete ZV
2
3
...

...

...
k
X :
p pq pq 2 ... pq k −1
4. Klass. Wkt.
5. Zufallsvariablen
1
EX =
∞
X
k =0
xk pk =
∞
X
kpq
k−1
k=1
= p·
∞
X
k =1
q =1−p
kq k−1 =
1
p
= .
p
(1 − q)2
7. Charakteristika
Der Erwartungswert
Beweis des vorletzten Gleichheitszeichens:
Moment und Varianz
Schiefe und Exzess
a) durch vollst. Induktion
Charakteristische Fkt.
8. Exponential
b) Differenzieren der geometrischen Reihe
263 / 895
Erwartungswert
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Def. 25 (Erwartungswert, X stetig)
2. Kombinatorik
Sei X stetig mit Dichtefunktion f (x). Die reele Zahl
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
Z∞
x · f (x)dx
EX =
−∞
6. Diskrete ZV
7. Charakteristika
heißt Erwartungswert von X .
Der Erwartungswert
Moment und Varianz
Schiefe und Exzess
Charakteristische Fkt.
8. Exponential
264 / 895
Der Erwartungswert
Beispiele (4)
Stochastik für
InformatikerInnen
a) X ∼ N (µ, σ 2 )
Wolfgang Kössler
Z∞
1. Grundbegriffe
2. Kombinatorik
EX =
−∞
Z∞
3. Bedingte Wkt
4. Klass. Wkt.
=
5. Zufallsvariablen
−∞
x√
1
2π · σ
Der Erwartungswert
Moment und Varianz
x−µ 2
) /2
σ
dx
1 −t 2
(σt + µ) √ e 2 dt
2π
6. Diskrete ZV
7. Charakteristika
e−(
1
= µ+ √
2π
Z∞
σ·t ·e
−t 2
2
dt = µ.
−∞
Schiefe und Exzess
Charakteristische Fkt.
8. Exponential
x−µ
σ
= t,
dt = σ1 dx
265 / 895
Der Erwartungswert
Beispiele (5)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
b) X ∼ Exp(λ),
Z∞
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
λ>0
EX =
x · λ · e−λ·x dx =
1
λ
0
6. Diskrete ZV
7. Charakteristika
Der Erwartungswert
Moment und Varianz
Schiefe und Exzess
Charakteristische Fkt.
8. Exponential
266 / 895
Der Erwartungswert
Beispiele (6)
Stochastik für
InformatikerInnen
c) X ∼ R(a, b), gleichverteilt auf dem Intervall (a,b)
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
1
EX =
b−a
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
2
=
Zb
a
2
b
1 x 2 xdx =
b−a 2 a
b −a
a+b
=
.
2(b − a)
2
Bemerkung: Die Erwartungswerte sind für stetige
7. Charakteristika
Der Erwartungswert
und diskrete Zufallsgrößen zweckmäßigerweise
Moment und Varianz
Schiefe und Exzess
Charakteristische Fkt.
8. Exponential
unterschiedlich definiert. Sie läßt sich jedoch
(maßtheoretisch) vereinheitlichen.
267 / 895
Eigenschaften des Erwartungswertes
Stochastik für
Satz
InformatikerInnen
Wolfgang Kössler
Seien X , X1 und X2 zufällige Variablen und
1. Grundbegriffe
a, b, c ∈ R beliebig. Dann gelten folgende Aussagen:
2. Kombinatorik
1
Wenn P(X = c) = 1, d.h. nimmt die zufällige
3. Bedingte Wkt
Variable X genau einen festen Wert an, so folgt
4. Klass. Wkt.
EX = Ec = c.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
2
Wenn P(X ≥ c) = 1, so EX ≥ c.
3
E(c · X ) = c · EX .
4
E(X + c) = EX + Ec = EX + c.
5
E(a · X1 + b · X2 ) = a · EX1 + b · EX2 .
Der Erwartungswert
Moment und Varianz
Schiefe und Exzess
Charakteristische Fkt.
8. Exponential
268 / 895
Eigenschaften des Erwartungswertes
Beweis des Satzes
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
Beweis: Wir beweisen stellvertretend Aussage 2.
Es sei X eine diskrete Zufallsgröße,


x1 x2 . . . xn . . .

X : 
p1 p2 . . . pn . . .
5. Zufallsvariablen
Nach Voraussetzung:
6. Diskrete ZV
c = x1 < x2 < . . . < xn < . . .. Daraus folgt:
7. Charakteristika
Der Erwartungswert
Moment und Varianz
Schiefe und Exzess
Charakteristische Fkt.
8. Exponential
EX =
X
i∈N
xi · pi ≥
X
i∈N
c · pi = c ·
X
pi = c.
i∈N
2
269 / 895
Eigenschaften des Erwartungswertes
Beweis des Satzes (Fortsetzung)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
Es sei X eine stetige zufällige Variable mit der
Dichtefunktion f . Dann gilt:
Z+∞
P(X ≥ c) =
f (x) dx = 1.
3. Bedingte Wkt
c
4. Klass. Wkt.
Zc
5. Zufallsvariablen
P(X < c) =
6. Diskrete ZV
7. Charakteristika
Der Erwartungswert
Moment und Varianz
Schiefe und Exzess
Charakteristische Fkt.
8. Exponential
⇒
⇒
f (x) dx = 0.
−∞
+∞
+∞
+∞
Z
Z
Z
x·f (x) dx =
x·f (x) dx ≥ c·
f (x) dx = c
EX =
−∞
c
c
|
{z
=1
}
270 / 895
Eigenschaften des Erwartungswertes
Ergänzungen
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Aus Aussage 4 folgt:
2. Kombinatorik
3. Bedingte Wkt
E(X − EX ) = EX − E(EX ) = 0.
4. Klass. Wkt.
5. Zufallsvariablen
Aussage 5 besagt, daß der Erwartungswert eine
6. Diskrete ZV
linearer Operator ist.
7. Charakteristika
Der Erwartungswert
Moment und Varianz
Schiefe und Exzess
Charakteristische Fkt.
8. Exponential
271 / 895
Erwartungswert von Funktionen von
Zufallsvariablen
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
Frage: Wie berechnen wir E(g(X ))?
X diskret Dann ist Y = g(X ) gegeben durch


g(x1 ) g(x2 ) . . .

Y : 
p1
p2
und der Erwartungswert ist
∞
X
E(g(X ) =
g(xi )pi
i=0
7. Charakteristika
Der Erwartungswert
Moment und Varianz
X stetig 1. Variante: Dichte fY von Y = g(X )
Schiefe und Exzess
Charakteristische Fkt.
8. Exponential
ausrechnen. Wie man das macht, sehen
R
wir später. Dann E(Y ) = y fY (y) dy. 272 / 895
Erwartungswert von Funktionen von
Zufallsvariablen (2)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
2. Variante: Satz (Regel des Faulen Statistikers)
Seien X und Y = g(X ) Zufallsgrößen. Dann gilt:
P

 ∞
falls X diskret
i=0 g(xi )pi ,
E(g(X )) = R∞

 g(x)f (x) dx, falls X stetig
−∞
vorausgesetzt die Erwartungswerte existieren.
Der Erwartungswert
Moment und Varianz
Schiefe und Exzess
Charakteristische Fkt.
8. Exponential
273 / 895
Erwartungswert von Funktionen von
Zufallsvariablen (3)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
Intuitive Erläuterung: Spiel
wobei wir X zufällig ziehen. Dann zahle ich den
‘Gewinn’ Y = g(X ). Ihr erwartetes
Z Einkommen ist
X
g(x)P(X = x) bzw.
g(x)f (x) dx.
x
4. Klass. Wkt.
Spezialfall: g(x) = IA (x) Indikatorfunktion eines
5. Zufallsvariablen
Ereignisses A
6. Diskrete ZV
Z
E(IA (X )) =
7. Charakteristika
Der Erwartungswert
Moment und Varianz
Schiefe und Exzess
Z
IA (x)fX (x) dx =
fX (x) dx
A
= P(X ∈ A) = P(A).
D.h. Die Wahrscheinlichkeit ist ein Speziallfall eines
Charakteristische Fkt.
8. Exponential
Erwartungswertes!
274 / 895
Regel des Faulen Statistikers
Beispiele (1)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
Sei X ∼ R(0, 1) und Y = g(X ) = eX . Dann
Z 1
Z 1
x
E(Y ) =
e f (x) dx =
ex dx = e − 1.
0
0
6. Diskrete ZV
7. Charakteristika
Der Erwartungswert
Moment und Varianz
Schiefe und Exzess
Charakteristische Fkt.
8. Exponential
275 / 895
Regel des Faulen Statistikers
Beispiele (2)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
Stab der Länge 1 zufällig brechen
Sei Y die Länge des längeren Stücks. Gesucht ist
die erwartete Länge E(Y ).
Wenn X der zufälllige Bruchpunkt ist, dann
X ∼ R(0, 1) und Y = g(X ) = max(X , 1 − X ). D.h.

1 − x
falls 0 < x < 0.5
g(x) =
x
falls 0.5 < x < 1
Der Erwartungswert
Moment und Varianz
Z
Schiefe und Exzess
Charakteristische Fkt.
8. Exponential
E(Y ) =
1
Z
g(x)f (x) dx =
0
0
0.5
Z
(1−x) dx+
1
0.5
x dx =
3
.
4
276 / 895
Regel des Faulen Statistikers
Beweis (1)
Stochastik für
InformatikerInnen
Wolfgang Kössler
Wir zeigen die letzte Behauptung unter der
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
Annahme g: R → R differenzierbar, g 0 (x) 6= 0 ∀x.
Nach der Definition des Erwartungswertes gilt:
Z∞
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
y · h(y) dy,
E(g(X )) =
−∞
7. Charakteristika
Der Erwartungswert
wobei h(y) die Dichte von Y = g(X ) ist.
Moment und Varianz
Schiefe und Exzess
Charakteristische Fkt.
8. Exponential
277 / 895
Regel des Faulen Statistikers
Beweis (2)
Stochastik für
InformatikerInnen
Wolfgang Kössler
Wir bestimmen jetzt h(y):
1. Fall: Sei g monoton wachsend.
FY (t) = Fg(X ) (t) =
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
P(g(X ) < t) = P(X < g −1 (t)) =
4. Klass. Wkt.
5. Zufallsvariablen
g 0 (x)dx = dy.
Zt
Fg(X ) (t) =
7. Charakteristika
Der Erwartungswert
f (g −1 (y))
dy
g 0 (g −1 (y))
−∞
Moment und Varianz
−1
Schiefe und Exzess
8. Exponential
f (x) dx
−∞
Substitution: g(x) = y,
6. Diskrete ZV
Charakteristische Fkt.
−1 (t)
gZ
⇒
f (g (y))
= h(y)
g 0 (g −1 (y))
ist Dichte von g(X )
278 / 895
Regel des Faulen Statistikers
Beweis (3)
Stochastik für
InformatikerInnen
Wolfgang Kössler
2. Fall: Sei g monoton fallend.
1. Grundbegriffe
FY (t) = Fg(X ) (t) =
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
P(g(X ) < t) = P(X > g −1 (t)) =
5. Zufallsvariablen
Z∞
f (x) dx
g −1 (t)
6. Diskrete ZV
7. Charakteristika
Der Erwartungswert
Substitution:
g(x) = y,
g 0 (x)dx = dy,
g(∞) = −∞
Moment und Varianz
Schiefe und Exzess
Charakteristische Fkt.
8. Exponential
279 / 895
Regel des Faulen Statistikers
Beweis (4)
Stochastik für
InformatikerInnen
Wolfgang Kössler
Z−∞
1. Grundbegriffe
2. Kombinatorik
Fg(X ) (t) =
t
3. Bedingte Wkt
Zt
4. Klass. Wkt.
=
5. Zufallsvariablen
7. Charakteristika
Moment und Varianz
Z−∞
f (g −1 (y))
dy
|g 0 (g −1 (y)|
t
f (g −1 (y))
dy
|g 0 (g −1 (y)|
−∞
6. Diskrete ZV
Der Erwartungswert
f (g −1 (y))
dy = −
g 0 (g −1 (y)
⇒
f (g −1 (y))
= h(y)
|g 0 (g −1 (y))|
ist Dichte von g(X )
Schiefe und Exzess
Charakteristische Fkt.
8. Exponential
280 / 895
Regel des Faulen Statistikers
Beweis (5)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
Z
Z∞
∞
y · h(y) dy =
⇒ E(g(X )) =
−∞
f (g −1 (y))
dy
y · 0 −1
|g (g (y))|
−∞
Substitution: y = g(x), dy = g 0 (x)dx
5. Zufallsvariablen
Z∞
6. Diskrete ZV
7. Charakteristika
E(g(X )) =
g(x)f (x)dx.
Der Erwartungswert
Moment und Varianz
−∞
Schiefe und Exzess
Charakteristische Fkt.
8. Exponential
281 / 895
Regel des Faulen Statistikers
Beispiele (Fortsetzung). Verwenden die Dichte von g(X ).
Stochastik für
InformatikerInnen
Fortsetzung von Bsp. 18
Wolfgang Kössler
Es war X ∼ R(0, 1), Y = g(X ) = eX . Also
1. Grundbegriffe
g(x) = ex ,
g 0 (x) = ex ,
g −1 (y) = ln y. Also
2. Kombinatorik
h(y) =
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
Der Erwartungswert
f (g −1 (y))
1
1
=
=
,
g 0 (g −1 (y))
eln y
y
1 ≤ y ≤ e.
Z e
Z
E(Y ) =
y ·h(y) dy =
1
1
e
1
y · dy =
y
Z
e
1 dy = e−1
1
Moment und Varianz
Schiefe und Exzess
Charakteristische Fkt.
8. Exponential
dasselbe Resultat wie mit der Regel des Faulen
Statistikers.
282 / 895
Regel des Faulen Statistikers
Beispiele (Fortsetzung von Bsp. Gebrochener Stab)
Stochastik für
Es war X ∼ R(0, 1), Y = g(X ) = max(X , 1 − X ).
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
g(x) = max(x,
1 − x) ist stückweise diff.bar.

1,
x > 0.5
g −1 (y) = {y, 1 − y}
g 0 (x) =
−1, x < 0.5.
g 0 (g −1 (y)) = {1, −1}
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
{f (g −1 (y))}
1+1
h(y) = 0 −1
=
= 2, y ∈ (0.5, 1)
|g (g (y))|
1
6. Diskrete ZV
7. Charakteristika
Der Erwartungswert
Moment und Varianz
Schiefe und Exzess
Charakteristische Fkt.
8. Exponential
Z
1
Z
y · h(y) dy =
E(Y ) =
0.5
1
3
1
y · 2 dy = 2 · y 2 |10.5 =
2
4
0.5
Also wieder dasselbe Resultat wie mit der Regel des
Faulen Statistikers.
283 / 895
Inhalt
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
7.1 Der Erwartungswert
2. Kombinatorik
7.2 Moment und Varianz
3. Bedingte Wkt
7.3 Schiefe und Exzess
4. Klass. Wkt.
7.4 Charakteristische Funktionen
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
Der Erwartungswert
Moment und Varianz
Schiefe und Exzess
Charakteristische Fkt.
8. Exponential
284 / 895
7.2 Moment und Varianz
Stochastik für
InformatikerInnen
Wolfgang Kössler
Es sei X eine zufällige Variable.
Def. 26 (Moment und Zentrales Moment)
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
Falls E(|X |p ) < ∞, heißt der Erwartungswert EX p
p–tes Moment
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
Der Erwartungswert
p
EX =
 +∞
R p


x · f (x) dx,

falls X stetig ist
P p


xi · pi ,

falls X diskret ist
−∞
i∈N
Moment und Varianz
Schiefe und Exzess
Charakteristische Fkt.
8. Exponential
E(X − EX )p heißt p–tes zentrales Moment.
285 / 895
Varianz und Standardabweichung
Stochastik für
InformatikerInnen
Wolfgang Kössler
Def. 27 (Varianz), bez. Var X oder σX2
1. Grundbegriffe
Das zweite zentrale Moment E(X − EX )2 nennen wir
2. Kombinatorik
auch Streuung oder Varianz der Zufallsgröße X .
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
Def. 28 (Standardabweichung), σ, σX
p
σ = Var (X )
7. Charakteristika
Der Erwartungswert
Bem.: Var (X ): mittlere quadratische Abweichung
Moment und Varianz
Schiefe und Exzess
zwischen X und EX .
Charakteristische Fkt.
8. Exponential
286 / 895
Varianz
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Satz (Eigenschaften der Varianz):
1
Sei c ∈ R. Wenn P(X = c) = 1, so Var X = 0. Ist
2. Kombinatorik
umgekehrt Var X = 0, so existiert ein c ∈ R, so
3. Bedingte Wkt
daß gilt: P(X = c) = 1.
4. Klass. Wkt.
2
Für beliebige c ∈ R gilt: Var (X + c) = Var X .
3
Für beliebige a ∈ R gilt: Var (a · X ) = a2 · Var X .
4
Für zwei zufällige Variablen X1 und X2 gilt:
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
Der Erwartungswert
Moment und Varianz
Var (X1 + X2 ) = Var X1 + Var X2 + 2 · cov (X1 , X2 ).
Schiefe und Exzess
Charakteristische Fkt.
8. Exponential
287 / 895
Eigenschaften der Varianz
Beweis (1)
Stochastik für
InformatikerInnen
Es seien X , X1 und X2 beliebige zufällige Variablen.
Wolfgang Kössler
a, c ∈ R seien ebenfalls beliebig gewählt. Die
1. Grundbegriffe
folgenden Aussagen folgen aus dem Satz über die
2. Kombinatorik
Eigenschaften des Erwartungswertes.
3. Bedingte Wkt
1
Es gelte: P(X = c) = 1. Daraus folgt EX = c.
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
Der Erwartungswert
Moment und Varianz
Schiefe und Exzess
Charakteristische Fkt.
8. Exponential
Var X = E(X − EX )2 = E(X − c)2 = E(c − c)2 = 0
Es sei nun Var X = 0 = E(X − EX )2 = 0.
Allgemein gilt für c ∈ R: E(X − c)2 ≥ 0. Also,
P(X − EX = 0) = 1. und
Verlangte.
c := EX leistet das
288 / 895
Eigenschaften der Varianz
Beweis (2)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
Var (X + c) = E(X + c − E(X + c))2
= E(X + c − EX − Ec)2
= E(X + c − EX − c)2
6. Diskrete ZV
7. Charakteristika
= E(X − EX )2 = Var X
Der Erwartungswert
Moment und Varianz
Schiefe und Exzess
Charakteristische Fkt.
8. Exponential
289 / 895
Eigenschaften der Varianz
Beweis (4)
Stochastik für
InformatikerInnen
Wolfgang Kössler
3
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
Var (a · X ) = E(a · X − E(a · X ))2
= E(a · X − a · EX )2
= E(a · (X − EX ))2
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
= E a2 · (X − EX )2
= a2 · E(X − EX )2
Der Erwartungswert
Moment und Varianz
= a2 · Var X
Schiefe und Exzess
Charakteristische Fkt.
8. Exponential
290 / 895
Eigenschaften der Varianz
Beweis (3)
Stochastik für
InformatikerInnen
4
Wolfgang Kössler
Var (X1 + X2 ) = E(X1 + X2 − E(X1 + X2 ))2
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
= E(X1 + X2 − EX1 − EX2 )2
= E((X1 − EX1 ) + (X2 − EX2 ))2
= E (X1 − EX1 )2 + (X2 − EX2 )2
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
+2 · (X1 − EX1 ) · (X2 − EX2 )
= E(X1 − EX1 )2 + E(X2 − EX2 )2
Der Erwartungswert
Moment und Varianz
Schiefe und Exzess
Charakteristische Fkt.
8. Exponential
+2 · E((X1 − EX1 ) · (X2 − EX2 ))
|
{z
}
= Var X1 + 2 · cov (X1 , X2 ) + Var X2
291 / 895
Kovarianz und Unabhängigkeit
Stochastik für
InformatikerInnen
Kovarianz der zufälligen Variablen X1 und X2
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
cov (X1 , X2 ) := E((X1 − EX1 ) · (X2 − EX2 ))
cov (X1 , X2 ) =
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
= E((X1 − EX1 ) · (X2 − EX2 ))
= E(X1 · X2 − X1 · EX2 − X2 · EX1 + EX1 · EX2 )
7. Charakteristika
Der Erwartungswert
= E(X1 · X2 ) − E(X1 · EX2 ) − E(X2 · EX1 ) + EX1 · EX2
Moment und Varianz
Schiefe und Exzess
= E(X1 · X2 ) − EX1 · EX2
Charakteristische Fkt.
8. Exponential
292 / 895
Kovarianz und Unabhängigkeit
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
Erinnerung:
Unabhängigkeit
Zwei Zufallsvariablen X1 und X2 heißen unabhängig,
falls für alle x1 , x2 ∈ R gilt:
3. Bedingte Wkt
4. Klass. Wkt.
P(X1 < x1 , X2 < x2 ) = P(X1 < x1 ) · P(X2 < x2 )
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
Der Erwartungswert
Moment und Varianz
Schiefe und Exzess
Charakteristische Fkt.
8. Exponential
Lemma
Es seien X1 und X2 zwei unabhängige Zufallsgrößen.
Dann gilt:
cov (X1 , X2 ) = 0.
293 / 895
Kovarianz und Unabhängigkeit
Beweis des Lemmas (1)
Stochastik für
InformatikerInnen
Beweis: Wir betrachten den zufälligen Vektor
Wolfgang Kössler
X = (X1 , X2 )T und führen den Beweis nur für den
1. Grundbegriffe
Fall, daß die beiden Zufallsgrößen X1 und X2 stetig
2. Kombinatorik
sind. Für den diskreten Fall verfährt man analog.
3. Bedingte Wkt
Es sei f (x1 , x2 ) die Dichtefunktion des zufälligen
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
Vektors X.
Wir definieren eine Funktion g : R2 −→ R durch:
g(X1 , X2 ) := (X1 − EX1 ) · (X2 − EX2 ).
Der Erwartungswert
Moment und Varianz
Schiefe und Exzess
Charakteristische Fkt.
8. Exponential
Offenbar,
cov (X1 , X2 ) = Eg(X1 , X2 ).
294 / 895
Kovarianz und Unabhängigkeit
Beweis des Lemmas (2)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
Außerdem ist:
Z
Eg(X1 , X2 ) = (x1 −EX1 )·(x2 −EX2 )·f (x1 , x2 ) dx1 dx2 .
R2
4. Klass. Wkt.
Nach Voraussetzung sind die zufälligen Variablen X1
5. Zufallsvariablen
und X2 unabhängig, also
6. Diskrete ZV
7. Charakteristika
f (x1 , x2 ) = fX1 (x1 ) · fX2 (x2 ).
Der Erwartungswert
Moment und Varianz
Schiefe und Exzess
Somit gilt dann:
Charakteristische Fkt.
8. Exponential
295 / 895
Kovarianz und Unabhängigkeit
Beweis des Lemmas (3)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
cov (X1 , X2 ) =
Z
=
(x1 − EX1 ) · (x2 − EX2 ) · fX1 (x1 ) · fX2 (x2 ) dx1 dx2
R2
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
Z
Z
(x1 − EX1 ) · fX1 (x1 ) dx1 ·
=
R
(x2 − EX2 ) · fX2 (x2 ) dx2
R
5. Zufallsvariablen
= E(X1 − EX1 ) · E(X2 − EX2 )
6. Diskrete ZV
= 0
7. Charakteristika
Der Erwartungswert
Bemerkung: Wir haben beim Beweis des Satzes
Moment und Varianz
Schiefe und Exzess
Charakteristische Fkt.
8. Exponential
zwei Aussagen verwendet, die erst im Abschnitt
Unabhängigkeit behandelt werden.
296 / 895
Korrelation und Unabhängigkeit
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
Die Umkehrung der Aussage von Lemma 10 gilt im
allgemeinen nicht, wie das folgende Beispiel zeigt:
Es sei X1 ∼ R(0, π)

 1 , falls 0 ≤ x < π
π
fX1 (x) =
.
 0 , sonst
Die Zufallsgröße X2 definieren wir durch X2 = sin X1 .
7. Charakteristika
Der Erwartungswert
Moment und Varianz
Schiefe und Exzess
Offenbar, X1 und X2 sind streng abhängig. Für die
Kovarianz der beiden Zufallsgrößen gilt:
Charakteristische Fkt.
8. Exponential
297 / 895
Korrelation und Unabhängigkeit
Beispiel (Fortsetzung, 1)
Stochastik für
InformatikerInnen
Nun gilt für die Erwartungswerte EX1 und EX2 :
Wolfgang Kössler
1. Grundbegriffe
EX1
2. Kombinatorik
3. Bedingte Wkt
0
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
Z+∞
Zπ
1
=
x · fX1 (x) dx = x · dx
π
−∞
0
h 2 iπ
2
= π1 · x2 = π1 · π2 = π2
EX2
Z+∞
= E(sin X1 ) =
sin x · fX1 (x) dx
−∞
7. Charakteristika
Zπ
Der Erwartungswert
Moment und Varianz
sin x ·
=
Schiefe und Exzess
Charakteristische Fkt.
8. Exponential
1
π
dx =
1
π
· [− cos x]π0 =
2
π
0
298 / 895
Korrelation und Unabhängigkeit
Beispiel (Fortsetzung, 2)
Stochastik für
InformatikerInnen
Wolfgang Kössler
Für den Erwartungswert E(X1 · X2 ) gilt nach der
Regel des Faulen Statistikers
Zπ
1. Grundbegriffe
2. Kombinatorik
E(X1 · X2 ) = E(X1 · sin X1 ) =
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
x · sin x ·
π
= − π1 · x · cos x 0 +
1
π
Schiefe und Exzess
Charakteristische Fkt.
8. Exponential
Zπ
·
cos x dx
|0
7. Charakteristika
Moment und Varianz
dx
0
6. Diskrete ZV
Der Erwartungswert
1
π
{z
=0
}
= − π1 · (−1)π − 0 = 1
Wir setzen alle diese Werte in die
Ausgangsgleichung ein und erhalten:
299 / 895
Korrelation und Unabhängigkeit
Beispiel (Fortsetzung, 3)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
cov (X1 , X2 ) = E(X1 · X2 ) − EX1 · EX2
= 1−
π
2
·
2
π
=0
2. Kombinatorik
3. Bedingte Wkt
Trotz der Abhängigkeit der beiden Zufallsgrößen X1
4. Klass. Wkt.
und X2 ist ihre Kovarianz gleich Null.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
Der Erwartungswert
Folgerung
Falls zwei zufällige Variablen X1 und X2 unabhängig
sind, gilt für die Varianz ihrer Summe:
Moment und Varianz
Schiefe und Exzess
Charakteristische Fkt.
8. Exponential
Var (X1 + X2 ) = Var (X1 ) + Var (X2 ).
300 / 895
Varianz
Beispiele (1)
Stochastik für
InformatikerInnen
a) Poisson-Verteilung, X ∼ Poi(λ)
Wolfgang Kössler
pi = P(X = i) =
1. Grundbegriffe
2. Kombinatorik
λi −λ
e ,
i!
i = 0, 1, 2, . . .
Var (X ) =
3. Bedingte Wkt
4. Klass. Wkt.
2
= E(X − EX ) =
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
Der Erwartungswert
Moment und Varianz
Schiefe und Exzess
Charakteristische Fkt.
=
∞
X
∞
X
(i − λ)2 pi
i=0
∞
X
i · (i − 1)pi +
i=2
i=0
ipi − 2λ
∞
X
ipi + λ
i=0
2
∞
X
pi
i=0
∞
X
λi−2 −λ
= λ
e + λ − 2λ2 + λ2 = λ.
(i − 2)!
2
i=2
8. Exponential
301 / 895
Varianz
Beispiele (2)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
b) Binomialverteilung, X ∼ B(n, p).
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
Var (X ) = np(1 − p).
(ohne Beweis, ÜA)
6. Diskrete ZV
7. Charakteristika
Der Erwartungswert
Moment und Varianz
Schiefe und Exzess
Charakteristische Fkt.
8. Exponential
302 / 895
Varianz
Beispiele (3)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
Der Erwartungswert
Moment und Varianz
Schiefe und Exzess
Charakteristische Fkt.
8. Exponential
c) Gleichverteilung auf (a, b), X ∼ R(a, b)

 1
a+b
x ∈ (a, b)
EX =
.
f (x) = b−a
2
0
sonst.
Z b
1
1 b
1
EX 2 =
x2
dx = x 3 a ·
b−a
3
b−a
a
3
3
2
2
b −a
a + ab + b
=
=
.
3(b − a)
3
Var (X ) = EX 2 − (EX )2
1
=
(4a2 + 4ab + 4b2 − 3a2 − 6ab − 3b2 )
12
1 2
(b − a)2
=
(a − 2ab + b2 ) =
.
12
12
303 / 895
Varianz
Beispiele (4)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
d) Exponentialverteilung

λe−λ·x
f (x) =
0
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
EX =
Schiefe und Exzess
sonst.
∞
EX 2 =
0
Der Erwartungswert
Moment und Varianz
1
.
Zλ
falls x ≥ 0,
Var (X ) =
x 2 λe−λ·x dx =
2
λ2
(ÜA).
1
.
λ2
Charakteristische Fkt.
8. Exponential
304 / 895
Varianz
Beispiele (4a)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
Der Erwartungswert
Moment und Varianz
e) Normalverteilung
1 x−µ 2
1
e− 2 ( σ ) dx
f (x) = √
Z 2πσ
∞
1 x−µ 2
1
2
E(X − µ) =
(x − µ)2 √
e− 2 ( σ ) dx
2πσ
−∞
Z ∞
t2
1
= σ2
t 2 √ e− 2 dt
2π
Z−∞
∞
t2
1
= σ2
(−t)(−t √ e− 2 ) dt
2π
−∞
Schiefe und Exzess
Charakteristische Fkt.
8. Exponential
305 / 895
Varianz
Beispiele (4b)
Stochastik für
InformatikerInnen
e) Normalverteilung
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
∞
σ2
2
−te−t /2 −∞ −
= √
2π
Z ∞
t2
σ2
= √
e− 2 dt
2π −∞
2
= σ .
Z
∞
t2
(−1)e− 2 dt
−∞
6. Diskrete ZV
7. Charakteristika
t=
x−µ
,
σ
σ dt = dx
Der Erwartungswert
Moment und Varianz
Bei Normalverteilung sind also die Parameter µ und
Schiefe und Exzess
Charakteristische Fkt.
8. Exponential
σ 2 Erwartungswert und Varianz.
306 / 895
Inhalt
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
7.1 Der Erwartungswert
2. Kombinatorik
7.2 Moment und Varianz
3. Bedingte Wkt
7.3 Schiefe und Exzess
4. Klass. Wkt.
7.4 Charakteristische Funktionen
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
Der Erwartungswert
Moment und Varianz
Schiefe und Exzess
Charakteristische Fkt.
8. Exponential
307 / 895
7.3 Schiefe und Exzess
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Angenommen, das 4. Moment existiert.
Def. 29 (Schiefe und Kurtosis)
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
Schiefe γ1
p
Var (X ) (Standardabweichung)
E(X − EX )3
=
(VarX )3/2
σX =
6. Diskrete ZV
7. Charakteristika
Kurtosis γ2 =
Der Erwartungswert
E(X − EX )4
(VarX )2
Moment und Varianz
Schiefe und Exzess
Charakteristische Fkt.
8. Exponential
Exzess: γ2 − 3.
308 / 895
Schiefe und Exzess
Versuch einer Klassifikation
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
γ1
γ1
γ1
γ2
γ2
γ2
> 0:
= 0:
< 0:
> 3:
= 3:
< 3:
rechtsschiefe Verteilung
symmetrische Verteilung
linksschiefe Verteilung
starke Tails
Wölbung wie bei NV
schwache Tails
5. Zufallsvariablen
6. Diskrete ZV
Bem.: Diese Klassifikation ist recht vage. Es gibt
7. Charakteristika
mehrere Verteilungen mit gleichem Erwartungswert,
Der Erwartungswert
Moment und Varianz
gleicher Varianz, gleicher Schiefe und gleicher
Schiefe und Exzess
Charakteristische Fkt.
8. Exponential
Kurtosis, die aber recht unterschiedlich aussehen.
309 / 895
Schiefe und Exess
E(X ) = 0, var (X ) = 1, γ1 = 0, γ2 = 3
Dichte
Stochastik für
InformatikerInnen
0.8
Wolfgang Kössler
1. Grundbegriffe
0.6
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
0.4
5. Zufallsvariablen
6. Diskrete ZV
0.2
7. Charakteristika
Der Erwartungswert
Moment und Varianz
Schiefe und Exzess
Charakteristische Fkt.
8. Exponential
0
-3
-2
-1
0
x
1
2
3
310 / 895
Inhalt
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
7.1 Der Erwartungswert
2. Kombinatorik
7.2 Moment und Varianz
3. Bedingte Wkt
7.3 Schiefe und Exzess
4. Klass. Wkt.
7.4 Charakteristische Funktionen
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
Der Erwartungswert
Moment und Varianz
Schiefe und Exzess
Charakteristische Fkt.
8. Exponential
311 / 895
7.4 Charakteristische Funktionen
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
Sei X Zufallsvariable mit Dichtefunktion fX (falls X
stetig) oder Wkt.funktion pj (falls X diskret).
Def. 30 (charakteristische Funktion von X )
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
φX (t) := EeitX
R
 ∞ eitx fX (x) dx
−∞
= P
 ∞ eitxj p
j
j=1
falls X stetig
falls X diskret
√
Bem.: Die Funktion φX ist (bis auf den Faktor 2π)
Der Erwartungswert
Moment und Varianz
die Fourier-Transformierte von fX .
Schiefe und Exzess
Charakteristische Fkt.
8. Exponential
Bem.: Die charakterische Funktion existiert.
312 / 895
Charakteristische Funktionen
Stochastik für
Satz (Eigenschaften)
InformatikerInnen
Wolfgang Kössler
(i) φX (t) ist in −∞ < t < ∞ gleichmäßig stetig.
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
|φX (t)| ≤ 1
φX (0) = 1
φX (−t) = φX (t)
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
Der Erwartungswert
(ii) Die Zufallsvariable Y = aX + b hat die
charakteristische Funktion
φY (t) = φX (at)eibt
Moment und Varianz
Schiefe und Exzess
Charakteristische Fkt.
8. Exponential
(iii) φX (t) ist reellwertig ⇔ X bzgl. x = 0
symmetrisch ist.
313 / 895
Charakteristische Funktionen
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Satz (Multiplikationssatz)
Seien die Zufallsvariablen X1 und X2 unabhängig mit
2. Kombinatorik
den charakteristischen Funktionen φ1 und φ2 . Dann
3. Bedingte Wkt
hat die Zufallsvariable X1 + X2 die charakteristische
4. Klass. Wkt.
Funktion φ1 · φ2 .
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
Der Erwartungswert
Beweis: Es gilt:
φX1 +X2 (t) = Eeit(X1 +X2 ) = EeitX1 · EeitX2 = φ1 (t) · φ2 (t)
Moment und Varianz
Schiefe und Exzess
Charakteristische Fkt.
8. Exponential
2
314 / 895
Charakteristische Funktionen
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Satz (Eindeutigkeitssatz)
Die Beziehung FX ⇔ φX
Für X stetig gilt:
2. Kombinatorik
1
fX (x) =
2π
3. Bedingte Wkt
∞
Z
4. Klass. Wkt.
5. Zufallsvariablen
ist eineindeutig.
e−itx φX (t) dt
−∞
Für X diskret gilt:
6. Diskrete ZV
1
pj = lim
T →∞ 2π
7. Charakteristika
Der Erwartungswert
Z
T
e−itxj φX (t) dt
−T
Moment und Varianz
Schiefe und Exzess
Charakteristische Fkt.
8. Exponential
Beweis:
Teil 3.
siehe z.B. Günther, Grundkurs Analysis,
2
315 / 895
Charakteristische Funktionen
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
Satz (Konvergenzsatz)
3. Bedingte Wkt
Seien Xn Zufallsvariablen mit Xn ∼ Fn . Dann gilt
4. Klass. Wkt.
5. Zufallsvariablen
Fn → F ⇔ φn → φ,
φ stetig in t = 0.
6. Diskrete ZV
7. Charakteristika
Der Erwartungswert
Moment und Varianz
Schiefe und Exzess
Charakteristische Fkt.
8. Exponential
316 / 895
Charakteristische Funktionen
Wozu brauchen wir sie?
Stochastik für
InformatikerInnen
Wolfgang Kössler
Zum Beweis des Zentralen Grenzwertsatzes:
Die Summe von unabhängigen, identisch verteilten
1. Grundbegriffe
Zufallsgrößen ist asymptotisch normalverteilt (siehe
2. Kombinatorik
Abschnitt Grenzwertsätze).
3. Bedingte Wkt
4. Klass. Wkt.
1. charakteristische Funktion der Summe
5. Zufallsvariablen
(Multiplikationssatz)
6. Diskrete ZV
2. diese konvergiert gegen charakteristische
7. Charakteristika
Funktion der Normalverteilung (s. unten)
Der Erwartungswert
Moment und Varianz
Schiefe und Exzess
Charakteristische Fkt.
8. Exponential
3. Konvergenz der Summe folgt aus dem
Konvergenzsatz
317 / 895
Charakteristische Funktionen
Stochastik für
InformatikerInnen
Wolfgang Kössler
Satz (Erzeugung der Momente)
Sei EX k < ∞. Dann gilt:
1. Grundbegriffe
αk := EX k =
2. Kombinatorik
3. Bedingte Wkt
1 (k)
φ (0)
ik X
Beweis: Vertauschen von Integration und
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
Differentiation.
Die charakteristische Funktion hat also die
Taylor-Entwicklung
Der Erwartungswert
Moment und Varianz
Schiefe und Exzess
Charakteristische Fkt.
8. Exponential
2
φX (t) = Ee
itX
=
∞
X
(it)j
j=0
j!
j
EX =
k
X
j=0
αj
(it)j
+o(t k ),
j!
t →0
318 / 895
Charakteristische Funktionen
Stochastik für
InformatikerInnen
X ∼ N (0, 1)
Wolfgang Kössler
Ee
itX
=
1. Grundbegriffe
2. Kombinatorik
=
3. Bedingte Wkt
4. Klass. Wkt.
=
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
=
Z ∞
x2
1
√
eitx e− 2 dx
2π −∞
Z ∞
x 2 −2itx+(it)2 −(it)2
1
2
√
e−
dx
2π −∞
Z
1 − t 2 ∞ − (x−it)2
√ e 2
z = x − it
e 2 dx
2π
−∞
Z
t2
1 − t 2 ∞+it − z 2
2
√ e
e 2 dz = e− 2 .
2π
−∞+it
Der Erwartungswert
Moment und Varianz
Schiefe und Exzess
Charakteristische Fkt.
8. Exponential
Y ∼ N (µ, σ 2 ):
EeitY = Eeit(σX +µ) = eitµ φX (σt)
319 / 895
Inhalt
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
8.1 Einführung
2. Kombinatorik
8.2 Gedächtnislosigkeit
3. Bedingte Wkt
8.3 Zuverlässigkeitsmodelle
4. Klass. Wkt.
8.4 Bedienungstheorie
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
Einführung
Gedächtnislosigkeit
Zuverlässigkeitsmodelle
Bedienungstheorie
320 / 895
8.1 Einführung
Stochastik für
InformatikerInnen
Def. 31 (Exponentialverteilung), X ∼ EX (λ)
Wolfgang Kössler
Sei X eine Zufallsvariable mit Werten in [0, ∞). Sie
1. Grundbegriffe
heißt exponentialverteilt mit dem Parameter λ, λ > 0,
2. Kombinatorik
falls die Verteilungsfunktion beschrieben wird durch

1 − e−λt
falls t ≥ 0
F (t) = P(X < t) =
0
sonst.
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
Einführung
Gedächtnislosigkeit
Zuverlässigkeitsmodelle
Bedienungstheorie
Die Dichte der Exponentialverteilung ist

λe−λt
falls t ≥ 0
f (t) =
0
sonst.
321 / 895
Die Exponentialverteilung
Erwartungswert
Stochastik für
InformatikerInnen
Wolfgang Kössler
Z
1. Grundbegriffe
2. Kombinatorik
∞
Z
5. Zufallsvariablen
u
∞
= x · (−e−λx )0 −
u
6. Diskrete ZV
7. Charakteristika
x · λe−λx dx
0
0
3. Bedingte Wkt
4. Klass. Wkt.
∞
x · f (x) dx =
EX =
v
Z
= 0+
0
∞
Z
v0
∞
1 · (−e−λx ) dx
0
u0
v
−1
1
∞
e−λx dx =
· e−λx 0 = .
λ
λ
8. Exponential
Einführung
Gedächtnislosigkeit
Zuverlässigkeitsmodelle
Bedienungstheorie
322 / 895
Die Exponentialverteilung
Varianz
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
EX
2
Z
∞
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
x 2 · λe−λx dx
x · f (x) dx =
=
0
0
3. Bedingte Wkt
4. Klass. Wkt.
∞
Z
2
∞
= x 2 (−e−λx )0 −
u
v
2
2
=
· EX = 2 .
λ
λ
u
Z ∞
v0
2x · (−e−λx ) dx
0
u0
v
8. Exponential
Einführung
Gedächtnislosigkeit
Zuverlässigkeitsmodelle
Bedienungstheorie
323 / 895
Die Exponentialverteilung
Varianz, Schiefe, Exzess
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
VarX = EX 2 − (EX )2 =
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
2
1
1
− 2 = 2
2
λ
λ
λ
1
(Standardabweichung)
λ
E(X − EX )3
=2
Schiefe =
(VarX )3/2
σX =
6. Diskrete ZV
7. Charakteristika
8. Exponential
Kurtosis =
E(X − EX )4
=9
(VarX )2
Einführung
Gedächtnislosigkeit
Zuverlässigkeitsmodelle
Bedienungstheorie
324 / 895
Die Exponentialverteilung
Beispiel
Stochastik für
InformatikerInnen
Die zufällige Wartezeit eines Kunden
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
am Schalter sei exponentialverteilt mit einem
Erwartungswert von 10 min.
Wie groß ist die Wkt,. dass Sie mindestens 15 min.
warten müssen?
5. Zufallsvariablen
6. Diskrete ZV
X : zufällige Wartezeit eines Kunden am Schalter,
7. Charakteristika
X ∼ Exp(λ),
λ=
1
.
10
Frage: P(X > 15) ?
8. Exponential
Einführung
P(X > 15) = e−15λ
Gedächtnislosigkeit
Zuverlässigkeitsmodelle
Bedienungstheorie
= e−1.5 ≈ 0.220.
325 / 895
Inhalt
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
8.1 Einführung
2. Kombinatorik
8.2 Gedächtnislosigkeit
3. Bedingte Wkt
8.3 Zuverlässigkeitsmodelle
4. Klass. Wkt.
8.4 Bedienungstheorie
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
Einführung
Gedächtnislosigkeit
Zuverlässigkeitsmodelle
Bedienungstheorie
326 / 895
8.2 Gedächtnislosigkeit
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
Def. 32 (Gedächtnislosigkeit)
Eine Verteilung P (mit Verteilungsfunktion F ) heißt
gedächtnislos, wenn für alle s, t ≥ 0, gilt:
P(X > s + t|X > t) = P(X > s).
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
Einführung
Gedächtnislosigkeit
Zuverlässigkeitsmodelle
Bedienungstheorie
Bem.: Bei stetigen Verteilungen ist das äquivalent zu
P(X ≥ s + t|X ≥ t) = P(X ≥ s).
Es gilt (Definition der bedingten Wahrscheinlichkeit)
P({X ≥ s + t} ∩ {X ≥ t})
P(X ≥ s + t|X ≥ t) =
P(X ≥ t)
P(X ≥ s + t)
=
.
P(X ≥ t)
327 / 895
Gedächtnislosigkeit (2)
Stochastik für
InformatikerInnen
Wolfgang Kössler
Eine Verteilung(sfunktion) ist also gedächtnislos,
genau dann wenn
1. Grundbegriffe
P(X ≥ s + t)
= P(X ≥ s)
P(X ≥ t)
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
bzw.
1 − F (s + t)
= 1 − F (s).
1 − F (t)
7. Charakteristika
8. Exponential
Überlebensfunktion (oder Zuverlässigkeitsfunktion)
Einführung
Gedächtnislosigkeit
Zuverlässigkeitsmodelle
Bedienungstheorie
G(t) = 1 − F (t)
328 / 895
Gedächtnislosigkeit (3)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Die Verteilungsfunktion F (mit der
2. Kombinatorik
Überlebensfunktion G) ist also gedächtnislos genau
3. Bedingte Wkt
dann wenn
4. Klass. Wkt.
5. Zufallsvariablen
G(s + t) = G(s) · G(t) für alle s, t ≥ 0
6. Diskrete ZV
7. Charakteristika
Cauchy- Funktionalgleichung
8. Exponential
Einführung
Gedächtnislosigkeit
Zuverlässigkeitsmodelle
Bedienungstheorie
329 / 895
Gedächtnislosigkeit (4)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
Satz: Die Exponentialverteilung ist gedächtnislos.
Beweis: Die Verteilungsfunktion ist

1 − e−λt
falls t ≥ 0
F (t) = P(X < t) =
0
sonst,
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
und die Überlebensfunktion
G(t) = 1 − F (t) = 1 − (1 − e−λt ) = e−λt .
7. Charakteristika
8. Exponential
Folglich erhalten wir
Einführung
Gedächtnislosigkeit
Zuverlässigkeitsmodelle
Bedienungstheorie
G(s + t) = e−λ(s+t) = e−λs e−λt = G(s) · G(t).
330 / 895
Gedächtnislosigkeit (5)
Stochastik für
InformatikerInnen
Satz: Sei F eine stetige Verteilungsfunktion mit
Wolfgang Kössler
F (0) = 0
1. Grundbegriffe
Es gelte die Cauchy-Funktionalgleichung
und
G(t) = 1 − F (t).
2. Kombinatorik
3. Bedingte Wkt
G(s + t) = G(s) · G(t) für alle s, t ≥ 0.
(1)
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
Einführung
Gedächtnislosigkeit
Zuverlässigkeitsmodelle
Bedienungstheorie
Dann gilt für alle t, t > 0,
F (t) = 1 − e−λt ,
wobei λ > 0. D.h. F ist
Exponential-Verteilungsfunktion.
331 / 895
Gedächtnislosigkeit (6)
Beweis des Satzes
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
1
Es gilt:
t
t
t 2
G(t) = G( + ) = G( ) ≥ 0,
2 2
2
d.h. G(t) ≥ 0 für alle t.
3. Bedingte Wkt
Angenommen, es existiert ein t0 mit G(t0 ) = 0,
4. Klass. Wkt.
dann folgt:
5. Zufallsvariablen
6. Diskrete ZV
G(t) = G(t − t0 + t0 ) = G(t − t0 ) · G(t0 ) = 0
7. Charakteristika
für alle t, d.h. wir erhalten die triviale Lösung für
8. Exponential
die obige Cauchy-Funktionalgleichung, die
Einführung
Gedächtnislosigkeit
jedoch wegen
Zuverlässigkeitsmodelle
Bedienungstheorie
G(0) = 1 − F (0) = 1 nicht zugelassen ist.
332 / 895
Gedächtnislosigkeit (7)
Stochastik für
InformatikerInnen
Wolfgang Kössler
2
Es gilt also G(t) > 0 für alle t.
Sei m, m > 0, eine natürliche Zahl. Dann folgt
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
aus (1) für alle t > 0:
t
t
t m
G(t) = G( + . . . + ) = G( ) ,
m
|m {z m}
m mal
6. Diskrete ZV
7. Charakteristika
insbesondere
8. Exponential
Einführung
Gedächtnislosigkeit
G(1) = G(
1 m
)
m
oder
G(
1
1
) = G(1) m
m
Zuverlässigkeitsmodelle
Bedienungstheorie
333 / 895
Gedächtnislosigkeit (8)
Stochastik für
InformatikerInnen
Wolfgang Kössler
3
Für rationale Zahlen r =
m
n
erhalten wir
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
=
6. Diskrete ZV
7. Charakteristika
8. Exponential
1
1
n
) = G( + . . . + )
m
|m {z m}
n mal
1 n
G( )
m
n
G(1) m
r
G(1) .
G(r ) = G(
=
=
Einführung
Gedächtnislosigkeit
Zuverlässigkeitsmodelle
Bedienungstheorie
334 / 895
Gedächtnislosigkeit (9)
Stochastik für
InformatikerInnen
4
Wolfgang Kössler
Da die Funktion (G(1))t stetig ist auf R+ folgt für
alle t > 0:
1. Grundbegriffe
G(t) = G(1)t = et·ln(G(1))
2. Kombinatorik
3. Bedingte Wkt
5
Wir setzen λ := − ln G(1).
4. Klass. Wkt.
Da F als Verteilungsfunktion monoton
5. Zufallsvariablen
wachsend ist, ist G monoton fallend, d.h.
6. Diskrete ZV
ln G(1) < 0 und λ > 0. Wir erhalten demnach
7. Charakteristika
G(t) = e−λ·t ,
8. Exponential
Einführung
Gedächtnislosigkeit
Zuverlässigkeitsmodelle
Bedienungstheorie
also
F (t) = 1 − e−λ·t .
335 / 895
Gedächtnislosigkeit (10)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Bem.: Unter den diskreten Verteilungen hat nur die
geometrische Verteilung diese Eigenschaft (siehe
4. Klass. Wkt.
dort)
Fortsetzung von Beispiel 1
Der Kunde hat schon 10 min. gewartet. Wie groß ist
5. Zufallsvariablen
die Wkt., daß er insgesamt länger als 15 min. warten
6. Diskrete ZV
muss ?
2. Kombinatorik
3. Bedingte Wkt
7. Charakteristika
8. Exponential
P(X > 15|X > 10) = P(X > 5) = e−5λ = e−0.5
Einführung
Gedächtnislosigkeit
Zuverlässigkeitsmodelle
Bedienungstheorie
≈ 0.604.
336 / 895
Gedächtnislosigkeit (12)
Stochastik für
InformatikerInnen
Postschalter mit 2 Personen besetzt. Die
Wolfgang Kössler
Bedienungszeit sei zufällig, exponential verteilt, mit
1. Grundbegriffe
Erwartungswert λ1 . Es werden gerade zwei Kunden
2. Kombinatorik
bedient, Sie sind der nächste.
Wkt. dafür, dass Sie nicht der letzte der 3 Kunden
3. Bedingte Wkt
4. Klass. Wkt.
sind? Antwort: Sie werden bedient, sobald der erste
5. Zufallsvariablen
6. Diskrete ZV
Platz frei wird. Wegen der Gedächtnislosigkeit der
7. Charakteristika
Exponentialverteilung hat die Bedienungszeit des
8. Exponential
anderen Kunden dieselbe Verteilung wie Ihre.
Einführung
Gedächtnislosigkeit
Zuverlässigkeitsmodelle
Bedienungstheorie
P = 0.5.
337 / 895
Inhalt
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
8.1 Einführung
2. Kombinatorik
8.2 Gedächtnislosigkeit
3. Bedingte Wkt
8.3 Zuverlässigkeitsmodelle
4. Klass. Wkt.
8.4 Bedienungstheorie
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
Einführung
Gedächtnislosigkeit
Zuverlässigkeitsmodelle
Bedienungstheorie
338 / 895
8.3 Zuverlässigkeitsmodelle
Stochastik für
InformatikerInnen
Wolfgang Kössler
Def. 33 Die Zuverlässigkeit eines Systems ζ
1. Grundbegriffe
ist die Wahrscheinlichkeit, dass das System zum
2. Kombinatorik
Zeitpunkt t intakt ist:
3. Bedingte Wkt
Rel(ζ) = P(X ≥ t).
4. Klass. Wkt.
5. Zufallsvariablen
Annahmen:
6. Diskrete ZV
7. Charakteristika
8. Exponential
Einführung
Gedächtnislosigkeit
Das System besteht aus mehreren Komponenten
Die Komponenten sind unabhängig
Xi ∼ Exp(λi ).
Zuverlässigkeitsmodelle
Bedienungstheorie
339 / 895
Zuverlässigkeitsmodelle
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
• Reihensystem
• Parallelsystem
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
• k aus n System
• Proversionswahrscheinlichkeit
6. Diskrete ZV
7. Charakteristika
• Faltung
8. Exponential
Einführung
Gedächtnislosigkeit
Zuverlässigkeitsmodelle
Bedienungstheorie
340 / 895
Zuverlässigkeitsmodelle
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
Reihensystem ζR
........................................................................
...
...
...
...
...
.....................
...
...
...
..
.....
......................................................................
........................................................................
........................................................................
........................................................................
...
...
...
...
...
...
...
...
...
...
...
....
...
..........................
.........................
.....................
...
...
...
...
...
....
...
...
...
...
...
...
.
.
.......................................................................
......................................................................
......................................................................
G1 (t)
Gn (t)
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
Rel(ζR ) = P(XR ≥ t) = P(X1 ≥ t, . . . , Xn ≥ t) =
n
n
Y
Y
=
P(Xi ≥ t) =
Gi (t) =
7. Charakteristika
8. Exponential
Einführung
Gedächtnislosigkeit
=
i=1
n
Y
i=1
i=1
e−λi t
X
n
= exp −
λi t .
i=1
Zuverlässigkeitsmodelle
Bedienungstheorie
341 / 895
Reihensystem
Stochastik für
InformatikerInnen
Wolfgang Kössler
Die zufällige Lebensdauer XR des Reihensystems ist
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
X
n
XR ∼ Exp
λi .
i=1
4. Klass. Wkt.
Die mittlere Lebensdauer des Reihensystems ist
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
1
EXR = Pn
i=1
λi
.
8. Exponential
Einführung
Gedächtnislosigkeit
Zuverlässigkeitsmodelle
Bedienungstheorie
342 / 895
Zuverlässigkeitsmodelle
Stochastik für
InformatikerInnen
Wolfgang Kössler
Reihensystem:
........................................................................
...
...
...
...
...
.....................
...
...
...
...
.
.........................................................................
........................................................................
........................................................................
........................................................................
...
...
...
...
...
...
...
...
...
..
...
...
....................
....
..........................
..........................
...
...
.
.
...
.....
.....
.....
.....
....
..........................................................................
........................................................................
........................................................................
1. Grundbegriffe
Rel(ζR ) = e
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
−
Pn
i=1
λi t
,
n → ∞, λi = λ : Rel(ζR ) → 0.
n
X
n → ∞,
λi,n → λ < ∞ : Rel(ζR ) → e−λt
i=1
6. Diskrete ZV
7. Charakteristika
8. Exponential
Einführung
Die Lebensdauer XR des Reihensystems ist
asymptotisch wieder exponentialverteilt.
Die Exponentialverteilung ist eine sogenannte
Gedächtnislosigkeit
Zuverlässigkeitsmodelle
Bedienungstheorie
Extremwertverteilung.
343 / 895
Zuverlässigkeitsmodelle
Reihensystem
Stochastik für
InformatikerInnen
Wolfgang Kössler
Bem.: Die Lebensdauer XR des Reihensystems
kann beschrieben werden durch
1. Grundbegriffe
XR = min Xi .
i
2. Kombinatorik
3. Bedingte Wkt
Die Zufallsvariable XR hat oft
4. Klass. Wkt.
nicht Xi ∼ Exp(λ))
5. Zufallsvariablen
Weibull-Verteilung mit der Dichte
6. Diskrete ZV
(auch dann wenn
asymptotisch eine
b
f (t) = b(λt)b−1 e−(λt) ,
t > 0, b > 0, λ > 0.
7. Charakteristika
8. Exponential
Einführung
Gedächtnislosigkeit
Zuverlässigkeitsmodelle
Bedienungstheorie
Das ist dann der Fall, wenn die Dichte der
unabhängig und identisch verteilten Zufallsvariablen
Xi ‘kurze’ Tails hat.
344 / 895
Zuverlässigkeitsmodelle
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
Einführung
Gedächtnislosigkeit
Parallelsystem
ζ
.........................................................................................P
...
...
...
...
...
...
.
.
...........................
...........................
...
...
...
...
...
...
...
....
.
..
...
...
...
...
.........................................................................................
.
....
....
...
...
....
....
.....
.....
...
...
....
....
...
...
...........................................................................................
....
....
...
...
...
...
....
....
....
..
...........................
..........................
.
.
.
.
.
.....
.....
.....
.....
...
...
...
...
.
...........................................................................................
.........................
..........................
...
...
...
...
...
.....
...
...
....
....
.....
.....
...
...
....
....
...
...
....
....
...
...
....
....
...
...
....
....
...
...
.........................................................................................
...
...
...
...
.....
.....
...
..
...
...
...........................
............................
.....
.....
...
...
.
...
.........................................................................................
G1 (t)
Gn (t)
Zuverlässigkeitsmodelle
Bedienungstheorie
345 / 895
Parallelsystem
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
Rel(ζP ) = P(XP ≥ t) = 1 − P(XP < t)
= 1 − P(X1 < t, . . . , Xn < t) =
|
{z
}
alle Komponenten sind
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
Einführung
Gedächtnislosigkeit
vor dem Zeitpunkt t
ausgefallen
n
n
Y
Y
Fi (t)
P(Xi < t) = 1 −
= 1−
i=1
i=1
= 1 − (1 − e
−λt n
)
wenn λi = λ
∀i
Zuverlässigkeitsmodelle
Bedienungstheorie
346 / 895
Parallelsystem
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
Einführung
.........................................................................................
...
...
...
....
...
.
............................
............................
...
...
...
...
..
..
...
..
..
.
...
.
....
...........................................................................................
...
...
...
...
...
...
...
...
.....
.....
.....
...
...
....
....
...
...
.............................................................................................
....
....
...
...
...
...
....
....
....
..
...........................
..........................
.
.
.
.
.
.....
.....
.....
.....
...
...
...
...
.
.........................................................................................
.........................
.........................
...
...
...
....
.....
.....
...
...
....
....
...
...
....
....
...
...
....
....
...
...
....
....
...
...
...
...
...
...
...
...
....
....
...........................................................................................
.....
.....
.....
.....
...
..
...
...
..........................
...........................
...
...
....
....
...
.
.......................................................................................
Parallelsystem
Rel(ζP ) = 1 − (1 − e−λt )n
Gedächtnislosigkeit
Zuverlässigkeitsmodelle
Bedienungstheorie
347 / 895
Parallelsystem
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
n → ∞, λi = λ : Rel(ζP ) → 1
n → ∞ : Rel(ζP ) ∼ 1 − e−e
−λt+ln n
Das ist auch eine Extremwertverteilung, die
sogenannte Gumbel-Verteilung.
4. Klass. Wkt.
5. Zufallsvariablen
Bem.: Die Lebensdauer XP des Parallelsystems
6. Diskrete ZV
kann beschrieben werden durch
7. Charakteristika
XP = max Xi .
8. Exponential
Einführung
Gedächtnislosigkeit
Zuverlässigkeitsmodelle
Bedienungstheorie
i
Der Fall der Gumbel-Verteilung tritt ein, wenn Xi
‘mittlere’ Tails hat.
348 / 895
Zuverlässigkeitsmodelle
Stochastik für
InformatikerInnen
Mittlere Lebensdauer des Parallelsystems (λi = λ)
Wolfgang Kössler
.......................................................................................................................................................................................................................................................................................................................................................................................................................................
1. Grundbegriffe
0
| {z }
T1
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
∼ Exp(λn)
| {z }
{z
|
T2
}
T3
∼ Exp(λ(n-1))
∼ Exp(λ(n-2))
T1 :
Wartezeit bis zum 1. Ausfall einer Komponente
Ti :
Wartezeit zwischen (i − 1)-tem und i-tem Ausfall
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
einer Komponente
8. Exponential
Einführung
Gedächtnislosigkeit
Zuverlässigkeitsmodelle
Bedienungstheorie
XP =
n
X
Ti .
i=1
349 / 895
Parallelsystem
mittlere Lebensdauer (2)
Stochastik für
InformatikerInnen
Zwischen (i − 1)-tem und i-tem Ausfall einer
Wolfgang Kössler
Komponente arbeiten genau n − i + 1 Komponenten
1. Grundbegriffe
gleichzeitig. Die Lebensdauer dieses Teilsystems
2. Kombinatorik
aus n − i + 1 Komponenten (Reihensystem) hat eine
3. Bedingte Wkt
Exponentialverteilung mit Parameter
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
µi = (n − i + 1) · λ,
ETi =
7. Charakteristika
8. Exponential
Einführung
Gedächtnislosigkeit
Zuverlässigkeitsmodelle
Bedienungstheorie
1
1
1
=
·
µi
n−i +1 λ
n
n
n
X
1X
1X1
1
1
=
=
.
EXP =
µi
λ
n−i +1
λ
i
i=1
i=1
i=1
350 / 895
Zuverlässigkeitsmodelle
Stochastik für
InformatikerInnen
k aus n Systeme
Wolfgang Kössler
Das System fällt aus, wenn k Komponenten
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
ausgefallen sind.
P
Lebensdauer:
T = ki=1 Ti .
Mittlere Lebensdauer:
k
k
X
1
1X
1
ET =
=
µi
λ
n−i +1
i=1
7. Charakteristika
8. Exponential
Einführung
Gedächtnislosigkeit
Zuverlässigkeitsmodelle
Bedienungstheorie
i=1
1 1
1
1
=
+
+ ···
.
λ n n−1
n−k +1
n aus n-System: Parallelsystem
1 aus n-System: Reihensystem
351 / 895
Zuverlässigkeitsmodelle
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
Proversionswahrscheinlichkeiten
Problem: Reihensystem mit 2 Komponenten und der
3. Bedingte Wkt
zufälligen Lebensdauer X1 , X2 :
4. Klass. Wkt.
X1 ∼ Exp(λ1 ),
5. Zufallsvariablen
System fällt aus.
6. Diskrete ZV
Mit welcher Wkt. liegt das an der ersten
7. Charakteristika
Komponente?
X2 ∼ Exp(λ2 ).
8. Exponential
Einführung
Gedächtnislosigkeit
Zuverlässigkeitsmodelle
Bedienungstheorie
352 / 895
Proversionswahrscheinlichkeiten
Stochastik für
InformatikerInnen
Wolfgang Kössler
Z
1. Grundbegriffe
Z
6. Diskrete ZV
7. Charakteristika
8. Exponential
Einführung
Gedächtnislosigkeit
∞
=
P(X1 < t) · λ2 e−λ2 t dt
Z0 ∞
4. Klass. Wkt.
5. Zufallsvariablen
P(X1 < X2 |X2 = t)f2 (t)dt
0
2. Kombinatorik
3. Bedingte Wkt
∞
P(X1 < X2 ) =
(1 − e−λ1 t ) · λ2 e−λ2 t dt
0
Z ∞
= 1−
λ2 e−(λ1 +λ2 )t dt
=
0
1−
λ1
λ2
=
.
λ1 + λ2
λ1 + λ2
Zuverlässigkeitsmodelle
Bedienungstheorie
353 / 895
Proversionswahrscheinlichkeiten
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
1
λ1
= 1000h, λ12 = 500h :
P(X1 < X2 ) =
1
.
3
6. Diskrete ZV
7. Charakteristika
8. Exponential
Einführung
Gedächtnislosigkeit
Zuverlässigkeitsmodelle
Bedienungstheorie
354 / 895
Faltung der Exponentialverteilung
Stochastik für
InformatikerInnen
Wolfgang Kössler
System mit 2 Komponenten: Zunächst ist nur die
1. Grundbegriffe
erste Komponente eingeschaltet. Wenn
2. Kombinatorik
diese ausfällt, wird automatisch die 2.
3. Bedingte Wkt
Komponente zugeschaltet. Das System
4. Klass. Wkt.
fällt aus, wenn beide Komponenten defekt
5. Zufallsvariablen
sind.
6. Diskrete ZV
7. Charakteristika
8. Exponential
Die Lebensdauern X1 , X2 seien unabhängig und
exponential, X1 , X2 ∼ Exp(λ) verteilt.
Einführung
Gedächtnislosigkeit
Frage: Wkt. für Systemausfall?
Zuverlässigkeitsmodelle
Bedienungstheorie
355 / 895
Faltung der Exponentialverteilung
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
Einführung
Gedächtnislosigkeit
F (t) = Z
P(X1 + X2 < t)
∞
P(X1 + X2 < t|X2 = s)f (s)ds
=
Z0 ∞
=
P(X1 < t − s)f (s)ds
Z0 ∞
=
F (t − s)f (s)ds
0
Z t
=
1 − e−λ(t−s) λe−λs ds
Z0 t
Z t
−λs
=
λe
ds −
λe−λt ds
0
0
= 1 − e−λt − λte−λt .
Zuverlässigkeitsmodelle
Bedienungstheorie
356 / 895
Faltung der Exponentialverteilung
Erlang-Verteilung
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
Dichte (t > 0):
f (t) = F 0 (t) = λe−λt + λ2 te−λt − λe−λt
= λ2 · t · e−λt
Erlang-Verteilung mit Parameter (2, λ).
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
Einführung
Satz: Seien X1 , . . . , Xn unabhängig, Xi ∼ Exp(λ)
Dann ist
X1 + X2 + · · · Xn ∼ Erlang(n, λ).
Erlang verteilt mit Parametern (n, λ) und Dichte:
(λt)n−1
fErl (t) = λe−λt
.
(n − 1)!
Gedächtnislosigkeit
Zuverlässigkeitsmodelle
Bedienungstheorie
Beweis: durch Induktion.
2
357 / 895
Zuverlässigkeitsmodelle
Ausfallrate
Stochastik für
InformatikerInnen
Wolfgang Kössler
Def. 34 Ausfallrate-Funktion
1. Grundbegriffe
(oder Hazardrate-Funktion)
2. Kombinatorik
3. Bedingte Wkt
µ(t) =
4. Klass. Wkt.
5. Zufallsvariablen
f (t)
1 − F (t)
(F eine Verteilungsfunktion mit Dichte f )
6. Diskrete ZV
7. Charakteristika
Interpretation: Die Zufallsvariable X habe bereits die
8. Exponential
Zeit t überlebt.
Einführung
Gedächtnislosigkeit
Zuverlässigkeitsmodelle
Bedienungstheorie
358 / 895
Ausfallrate-Funktion (2)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
Einführung
Frage: Wie groß ist die Wkt., dass X den Zeitraum
[t, t + dt] nicht überlebt, also
P(X ∈ [t, t + dt])
P(X > t)
R t+dt
f (x)dx
= t
1 − F (t)
F (t + dt) − F (t)
=
1 − F (t)
f (t)dt
≈
= µ(t)dt.
1 − F (t)
P(X ≤ t + dt|X > t) =
Gedächtnislosigkeit
Zuverlässigkeitsmodelle
Bedienungstheorie
µ(t): Rate mit der ein Bauteil, das t alt ist, ausfällt.
359 / 895
Ausfallrate-Funktion (3)
Stochastik für
InformatikerInnen
F (t) = 1 − e−λt
Wolfgang Kössler
1. Grundbegriffe
µ(t) =
λe−λt
= λ.
e−λt
2. Kombinatorik
3. Bedingte Wkt
Bei Exponentialverteilung ist die Ausfallrate konstant,
4. Klass. Wkt.
sie hängt nicht vom Zeitpunkt ab!
5. Zufallsvariablen
6. Diskrete ZV
ÜA: Sei F eine stetige Verteilungsfunktion mit Dichte
f und konstanter Ausfallrate. Zeigen Sie,
7. Charakteristika
8. Exponential
Einführung
dass f Exponential-Dichte ist.
Hinweis: Setzen Sie u(t) := 1 − F (t) und lösen Sie
Gedächtnislosigkeit
Zuverlässigkeitsmodelle
Bedienungstheorie
die Differentialgleichung u 0 − λu = 0.
360 / 895
Ausfallrate-Funktion (4)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
Def. 35 (IFR, DFR)
Eine Verteilungsfunktion F hat Increasing
Failure Rate (IFR), falls µ(t) monoton wachsend
ist.
3. Bedingte Wkt
4. Klass. Wkt.
F hat Decreasing Failure Rate (DFR), falls µ(t)
5. Zufallsvariablen
monoton fallend ist.
6. Diskrete ZV
Weibull-Verteilung
7. Charakteristika
8. Exponential
Verteilungsfkt.:
b
F (t) = 1 − e−(λt) ,
t, λ, b > 0,
Einführung
Gedächtnislosigkeit
Dichtefkt.:
f (t) = bλb t b−1 e−(λt)
b
Zuverlässigkeitsmodelle
Bedienungstheorie
361 / 895
Ausfallrate-Funktion (5)
Weibull-Verteilung
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
b
f (t)
bλb t b−1 e−(λt)
µ(t) =
=
= bλb t b−1
1 − F (t)
e−(λt)b
IFR
falls b > 1
2. Kombinatorik
IFR, DFR
falls b = 1
3. Bedingte Wkt
DFR
falls b < 1
4. Klass. Wkt.
(exp)
System mit verdeckten Mängeln, aber
5. Zufallsvariablen
6. Diskrete ZV
langsamen “Altern” → Ausfallrate sinkt →
7. Charakteristika
Weibull, b < 1
8. Exponential
System mit wenig verdeckten Mängeln, aber
Einführung
Gedächtnislosigkeit
Zuverlässigkeitsmodelle
Bedienungstheorie
schnellem “Altern” → Ausfallrate steigt →
Weibull, b > 1
362 / 895
Ausfallrate-Funktion
Stochastik für
InformatikerInnen
Wolfgang Kössler
Hjorth-Verteilung
2
1. Grundbegriffe
2. Kombinatorik
Verteilungsfkt.:
3. Bedingte Wkt
4. Klass. Wkt.
Dichtefkt.:
e−λt /2
, t, λ, γ, b > 0
F (t) = 1 −
(1 + bt)γ/b
λt(1 + bt) + γ −λt 2 /2
f (t) =
e
(1 + bt)γ/b+1
5. Zufallsvariablen
6. Diskrete ZV
µ(t) =
7. Charakteristika
8. Exponential
Einführung
Gedächtnislosigkeit
f (t)
γ
= λt +
1 − F (t)
1 + bt
fallend für λ = 0
badewannenförmig für 0 < λ < bγ.
Zuverlässigkeitsmodelle
Bedienungstheorie
363 / 895
Ausfallrate-Funktion
Stochastik für
InformatikerInnen
Wolfgang Kössler
Die Hjorth-Verteilung modelliert also
1. Grundbegriffe
badewannenförmige Ausfallraten.
2. Kombinatorik
3. Bedingte Wkt
zunächst fallen viele Objekte aus
4. Klass. Wkt.
(Kinderkrankheiten)
5. Zufallsvariablen
dann Ausfallrate zeitweilig konstant
6. Diskrete ZV
schließlich mehren sich die Ausfälle aufgrund
7. Charakteristika
8. Exponential
von Alterungserscheiningen.
Einführung
Gedächtnislosigkeit
Zuverlässigkeitsmodelle
Bedienungstheorie
364 / 895
Inhalt
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
8.1 Einführung
2. Kombinatorik
8.2 Gedächtnislosigkeit
3. Bedingte Wkt
8.3 Zuverlässigkeitsmodelle
4. Klass. Wkt.
8.4 Bedienungstheorie
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
Einführung
Gedächtnislosigkeit
Zuverlässigkeitsmodelle
Bedienungstheorie
365 / 895
8.4 Bedienungstheorie
Stochastik für
InformatikerInnen
Wolfgang Kössler
M/M/s - Wartesystem
1. Grundbegriffe
• X ∼ Exp(λ)
2. Kombinatorik
Ankünften/Anforderungen
3. Bedingte Wkt
• Forderungen reihen sich in eine Warteschlange
4. Klass. Wkt.
ein.
5. Zufallsvariablen
• B ∼ Exp(µ)
6. Diskrete ZV
• s parallele Bedienungsplätze
7. Charakteristika
Zeit zwischen
Bedienungszeiten, unabhängig
• Bei frei werdendem Bedienungsplatz wird die
8. Exponential
Einführung
nächste Forderung sofort bedient.
Gedächtnislosigkeit
Zuverlässigkeitsmodelle
Bedienungstheorie
366 / 895
Bedienungstheorie
Stochastik für
InformatikerInnen
Fragestellungen:
Wolfgang Kössler
• Mittlere Anzahl der Forderungen im System
1. Grundbegriffe
• Mittlere Warteschlangenlänge
2. Kombinatorik
• Mittlere Wartezeit EWt
3. Bedingte Wkt
• Besetztwahrscheinlichkeit PB
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
• Wartezeitverteilung
P(Wt ≤ u) = 1 − PB e−(sµ−λ)u
7. Charakteristika
8. Exponential
EWt =
Einführung
Gedächtnislosigkeit
Zuverlässigkeitsmodelle
Bedienungstheorie
Stationärer Fall, wenn
1
sµ
PB
.
sµ − λ
< λ1 .
367 / 895
Bedienungstheorie
Stochastik für
M/M/s - Verlustsystem
InformatikerInnen
Wolfgang Kössler
• X ∼ Exp(λ)
1. Grundbegriffe
Ankünften/Anforderungen
2. Kombinatorik
• Eine ankommende Forderung wird sofort bedient,
3. Bedingte Wkt
wenn ein Bedienungsplatz frei ist, ansonsten geht
4. Klass. Wkt.
sie verloren.
5. Zufallsvariablen
• B ∼ Exp(µ)
6. Diskrete ZV
• s parallele Bedienungsplätze
Zeit zwischen
Bedienungszeiten, unabhängig
7. Charakteristika
8. Exponential
Einführung
Gedächtnislosigkeit
Zuverlässigkeitsmodelle
Bedienungstheorie
Fragestellungen:
• Verlustwahrscheinlichkeit
• Mittlere Anzahl der besetzten Bedienungsplätze
368 / 895
Zusammenfassung
(Exponentialverteilung)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
• Exponentialdichte

λe−λt
f (t) =
0
if t ≥ 0
else.
• Erwartungswert
3. Bedingte Wkt
EX =
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
Einführung
1
.
λ
• Überlebensfunktion
G(t) = 1 − F (t) = e−λt .
• Cauchy-Funktionalgleichung
Gedächtnislosigkeit
Zuverlässigkeitsmodelle
Bedienungstheorie
G(s + t) = G(s) · G(t).
369 / 895
Zusammenfassung
(Exponentialverteilung, 2)
Stochastik für
Die Exponential-Verteilung ist gedächtnislos.
InformatikerInnen
Wolfgang Kössler
Die einzige gedächtnislose stetige Verteilung ist
1. Grundbegriffe
die Exponential-Verteilung
2. Kombinatorik
Exponential-Verteilung ist eine
3. Bedingte Wkt
Extremwertverteilung.
4. Klass. Wkt.
Anwendungen in der Zuverlässigkeitstheorie
5. Zufallsvariablen
Reihensystem, Parallelsystem
6. Diskrete ZV
7. Charakteristika
8. Exponential
Einführung
Gedächtnislosigkeit
Ausfallrate-Funktion
f (t)
.
1 − F (t)
Die Ausfallratefunktion der
µ(t) =
Zuverlässigkeitsmodelle
Bedienungstheorie
Exponentialverteilung ist konstant.
370 / 895
Inhalt
Stochastik für
InformatikerInnen
Wolfgang Kössler
9.1 Standard-Normalverteilung
1. Grundbegriffe
9.2 Berechnen von Wahrscheinlichkeiten
2. Kombinatorik
9.3 k · σ–Intervalle
3. Bedingte Wkt
9.4 Zentraler Grenzwertsatz
4. Klass. Wkt.
9.5 Fehlertheorie
5. Zufallsvariablen
9.6 Maximale Entropie
6. Diskrete ZV
9.7 Summe normalverteilter Zufallsvariablen
7. Charakteristika
9.8 Treffen einer Zielscheibe
8. Exponential
9. Normal
Standardnormal
Berechnen von Wktn.
371 / 895
9. Die Normalverteilung
Stochastik für
Dichte:
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
f (x) = √
1
2πσ
· e−(x−µ)
2 /2σ 2
,
Standard-Normalverteilung: µ = 0,
µ ∈ R, σ > 0
σ2 = 1
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
1
2
ϕ(x) = √ · e−x /2
Dichte
2π
Z x
1
2
e−t /2 dt Verteilungsfunktion
Φ(x) = √
2π −∞
ϕ(x), Φ(x) sind tabelliert!
9. Normal
Standardnormal
Berechnen von Wktn.
ϕ(x) = ϕ(−x)
Φ(x) = 1 − Φ(−x)
372 / 895
9.1 Die Standard-Normalverteilung
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
Standardnormal
X ∼ N (0, 1) :
P(a < X < b) = Φ(b) − Φ(a).
Frage: Für welches x gilt: Φ(x) = α?
x = Φ−1 (α)
α-Quantil.
−1
Φ (α) als Funktion: Quantilfunktion
Berechnen von Wktn.
373 / 895
Die Normalverteilung
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
Vergleichen Sie
a) σ 2 fest, µ verschieden
b) µ fest, σ 2 verschieden
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
Standardnormal
Berechnen von Wktn.
374 / 895
Die Normalverteilung
Stochastik für
InformatikerInnen
Satz: Es gilt:
Wolfgang Kössler
X ∼ N (0, 1) ⇐⇒ σX + µ ∼ N (µ, σ 2 )
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
Standardnormal
Berechnen von Wktn.
X ∼ N (µ, σ 2 ) ⇐⇒ αX + β ∼ N (αµ + β, α2 σ 2 )
X −µ
X ∼ N (µ, σ 2 ) ⇐⇒
∼ N (0, 1)
σ
Beweis: : Wir zeigen nur 1. (→). Sei X ∼ N (0, 1).
x −µ
x −µ
P(σX + µ ≤ x) = P(X ≤
) = Φ(
)
σ
σ
Z x−µ
Z x
σ
1 −t 2 /2
1
2
2
√ e
√
=
e−(u−µ) /(2σ ) du
dt =
2π
2πσ 2
−∞
−∞
u−µ
= t, σ1 du = dt.
2
σ
375 / 895
Inhalt
Stochastik für
InformatikerInnen
Wolfgang Kössler
9.1 Standard-Normalverteilung
1. Grundbegriffe
9.2 Berechnen von Wahrscheinlichkeiten
2. Kombinatorik
9.3 k · σ–Intervalle
3. Bedingte Wkt
9.4 Zentraler Grenzwertsatz
4. Klass. Wkt.
9.5 Fehlertheorie
5. Zufallsvariablen
9.6 Maximale Entropie
6. Diskrete ZV
9.7 Summe normalverteilter Zufallsvariablen
7. Charakteristika
9.8 Treffen einer Zielscheibe
8. Exponential
9. Normal
Standardnormal
Berechnen von Wktn.
376 / 895
9.2 Berechnen von
Wahrscheinlichkeiten
Stochastik für
InformatikerInnen
Satz: Sei X1 ∼ N (µ, σ12 ), X2 ∼ N(µ, σ22 ),
Wolfgang Kössler
σ12 < σ22 und a > 0. Dann gilt:
1. Grundbegriffe
P(µ − a < X1 < µ + a) > P(µ − a < X2 < µ + a).
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
Standardnormal
Berechnen von Wktn.
Beweis:
X1 − µ
a
−a
<
<
)
σ1
σ1
σ1
a
a
= Φ( ) − Φ(− )
σ1
σ1
a
a
> Φ( ) − Φ(− )
σ2
σ2
= P(µ − a < X2 < µ + a).
P(µ − a < X1 < µ + a) = P(
2
377 / 895
Berechnen von Wahrscheinlichkeiten
Beispiel
Stochastik für
InformatikerInnen
Wolfgang Kössler
X1 ∼ N (10, 4), X2 ∼ N (10, 9), a = 1.
1. Grundbegriffe
2. Kombinatorik
P(9 < X1 < 11) =
P(9 < X2 < 11) =
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
=
Φ( 11−10
) − Φ( 9−10
)
2
2
=
Φ( 11−10
) − Φ( 9−10
)
3
3
=
Φ( 21 ) − Φ(− 12 )
=
Φ( 31 ) − Φ(− 13 )
=
Φ( 12 ) − (1 − Φ( 12 ))
=
Φ( 31 ) − (1 − Φ( 13 ))
=
2 · Φ( 12 ) − 1
=
2 · Φ( 13 ) − 1
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
= 2 · 0.6915 − 1 = 0.383. = 2 · 0.63056 − 1 = 0.2611
Standardnormal
Berechnen von Wktn.
378 / 895
Berechnen von Wahrscheinlichkeiten
Stochastik für
InformatikerInnen
Wolfgang Kössler
Für die Berechnung der Wktn. Φ(x) existieren
Programme und Tabellen.
1. Grundbegriffe
x ≥ 0. In diesem Fall kann der Wert für
2. Kombinatorik
P(X < x) direkt aus der Tabelle abgelesen
3. Bedingte Wkt
werden.
4. Klass. Wkt.
x < 0. P(X < x) = Φ(x) = 1 − Φ(−x), z.B.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
P(X < −1) = Φ(−1) = 1 − Φ(1) ≈ 0.15.
P(a < X < b) = Φ(b) − Φ(a), z.B.
8. Exponential
9. Normal
Standardnormal
Berechnen von Wktn.
P(−1 ≤ x ≤ 1) = Φ(1) − Φ(−1) =
= Φ(1) − (1 − Φ(1)) = 2Φ(1) − 1 ≈ 0.68.
379 / 895
Berechnen von Wahrscheinlichkeiten
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
Beispiele
Y ∼ N (0, 1): P(Y < 0) =
1
2
(lt. Tabelle);
1
X ∼ N (1, 22 ): P(X < 0) = Φ 0−1
=
Φ
−
=
2
2
1
1 − Φ 2 ≈ 1 − 0.691 = 0.309.
7. Charakteristika
8. Exponential
9. Normal
Standardnormal
Berechnen von Wktn.
380 / 895
Berechnen von Wahrscheinlichkeiten
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Def. 36 (p-Quantil)
Sei die Verteilungsfunktion F und die Wkt. p
gegeben. Ein Wert xp mit
2. Kombinatorik
3. Bedingte Wkt
p = P(X < xp ) = F (xp )
4. Klass. Wkt.
5. Zufallsvariablen
heißt p-Quantil der Zufallsvariablen X , der
6. Diskrete ZV
Verteilungsfunktion (oder nur der Verteilung) F .
7. Charakteristika
8. Exponential
Sei Y ∼ N (0, 1).
Gesucht ist das p = 0.95-Quantil von Y .
9. Normal
Standardnormal
Tabelle für p = 0.95: xp (0, 1) ≈ 1.645
Berechnen von Wktn.
381 / 895
Berechnen von Wahrscheinlichkeiten
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
Sei X ∼ N (µ, σ 2 ). Bestimmen das p-Quantil xp (µ, σ):
xp (µ, σ) − µ
X −µ
p = P(X < xp (µ, σ)) = P
<
σ
σ
= P(Y < xp (0, 1)),
Y ∼ N (0, 1).
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
D.h.
xp (µ, σ) − µ
,
σ
woraus durch Umstellen folgt:
xp (0, 1) =
xp (µ, σ) = σ · xp (0, 1) + µ.
9. Normal
Standardnormal
Berechnen von Wktn.
382 / 895
Inhalt
Stochastik für
InformatikerInnen
Wolfgang Kössler
9.1 Standard-Normalverteilung
1. Grundbegriffe
9.2 Berechnen von Wahrscheinlichkeiten
2. Kombinatorik
9.3 k · σ–Intervalle
3. Bedingte Wkt
9.4 Zentraler Grenzwertsatz
4. Klass. Wkt.
9.5 Fehlertheorie
5. Zufallsvariablen
9.6 Maximale Entropie
6. Diskrete ZV
9.7 Summe normalverteilter Zufallsvariablen
7. Charakteristika
9.8 Treffen einer Zielscheibe
8. Exponential
9. Normal
Standardnormal
Berechnen von Wktn.
383 / 895
9.3 k · σ–Intervalle
Stochastik für
InformatikerInnen
Def. 37 (k · σ–Intervalle)
Wolfgang Kössler
Für eine normalverteilte Zufallsvariable X ∼ N (µ, σ)
1. Grundbegriffe
ist [µ − kσ, µ + kσ] ein k · σ–Intervall, k ∈ Z+ .
2. Kombinatorik
Interessant sind dabei die Wahrscheinlichkeiten:
3. Bedingte Wkt
4. Klass. Wkt.
P(µ − kσ ≤ X ≤ µ + kσ).
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
P(X ∈ [µ − kσ, µ + kσ]) = Φ
µ+k σ−µ
σ
−Φ
µ−k σ−µ
σ
= Φ(k) − Φ(−k)
8. Exponential
9. Normal
Standardnormal
Berechnen von Wktn.
= Φ(k) − (1 − Φ(k))
= 2 · Φ(k) − 1
384 / 895
k · σ–Intervalle
Stochastik für
InformatikerInnen
k · σ–Intervalle für k = 1, . . . , 5
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
k
2 · Φ(k) − 1
1
0.6827
2
0.9545
3
0.9973
4
0.99997
5
0.9999994
6
0.999999998
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
Standardnormal
Berechnen von Wktn.
385 / 895
k · σ–Intervalle
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
Ein Zeitungsverkäufer sieht die Nachfrage X nach
einer Tageszeitung als angenähert normalverteilt an.
Das 2 · σ–Intervall sei [322, 408]. Wie groß ist die
Wkt., daß mindestens 400 Exemplare der Zeitung
3. Bedingte Wkt
4. Klass. Wkt.
verkauft werden?
5. Zufallsvariablen
Die Frage ist also: P(X ≥ 400) = ?
6. Diskrete ZV
Nach Voraussetzung gilt:
7. Charakteristika
322 = µ − 2σ,
408 = µ + 2σ.
8. Exponential
9. Normal
Lösung des linearen Gleichungssystems liefert
Standardnormal
Berechnen von Wktn.
730 = 2µ
⇒
µ = 365,
86 = 4σ
⇒
σ = 21,
5.
386 / 895
k · σ–Intervalle
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
P(X ≥ 400) = 1 − P(X < 400)
= 1 − Φ 400−µ
σ
= 1 − Φ 400−365
21.5
4. Klass. Wkt.
≈ 1 − Φ(1.63)
5. Zufallsvariablen
≈ 1 − 0.95 = 0.05
6. Diskrete ZV
7. Charakteristika
Wir sehen also: Hat man ein k · σ–Intervall gegeben
8. Exponential
(und es wird Normalverteilung angenommen), so ist
9. Normal
es möglich, jede andere Wahrscheinlichkeit
Standardnormal
Berechnen von Wktn.
auszurechnen.
387 / 895
Inhalt
Stochastik für
InformatikerInnen
Wolfgang Kössler
9.1 Standard-Normalverteilung
1. Grundbegriffe
9.2 Berechnen von Wahrscheinlichkeiten
2. Kombinatorik
9.3 k · σ–Intervalle
3. Bedingte Wkt
9.4 Zentraler Grenzwertsatz
4. Klass. Wkt.
9.5 Fehlertheorie
5. Zufallsvariablen
9.6 Maximale Entropie
6. Diskrete ZV
9.7 Summe normalverteilter Zufallsvariablen
7. Charakteristika
9.8 Treffen einer Zielscheibe
8. Exponential
9. Normal
Standardnormal
Berechnen von Wktn.
388 / 895
9.4 Zentraler Grenzwertsatz
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Zentraler Grenzwertsatz
Seien Xi unabhängig, identisch verteilt,
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
EXi = µ, Var Xi = σ 2 .
P
X n = n1 ni=1 Xi
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
Zn :=
√ Xn − µ
n
→n→∞ Z ,
σ
Z ∼ N 0, 1).
Beweis: siehe Grenzwertsätze.
9. Normal
Standardnormal
Berechnen von Wktn.
389 / 895
Inhalt
Stochastik für
InformatikerInnen
Wolfgang Kössler
9.1 Standard-Normalverteilung
1. Grundbegriffe
9.2 Berechnen von Wahrscheinlichkeiten
2. Kombinatorik
9.3 k · σ–Intervalle
3. Bedingte Wkt
9.4 Zentraler Grenzwertsatz
4. Klass. Wkt.
9.5 Fehlertheorie
5. Zufallsvariablen
9.6 Maximale Entropie
6. Diskrete ZV
9.7 Summe normalverteilter Zufallsvariablen
7. Charakteristika
9.8 Treffen einer Zielscheibe
8. Exponential
9. Normal
Standardnormal
Berechnen von Wktn.
390 / 895
9.5 Fehlertheorie
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
Satz
Fehler sind unter folgenden Annahmen
(asymptotisch) normalverteilt:
V1: Jeder Fehler ist Summe einer sehr großen
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
Anzahl sehr kleiner, gleich großer Fehler,
die verschiedene Ursachen haben.
V2: Die verschiedenen Fehlerkomponenten sind
unabhängig.
8. Exponential
9. Normal
Standardnormal
Berechnen von Wktn.
V3: Jede Fehlerkomponente ist mit Wkt. 0.5 positiv
und mit Wkt. 0.5 negativ.
391 / 895
Fehlertheorie
Beweis des Satzes
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
Seien j , j = 1, . . . , n die Fehlerkomponenten.
V3 ⇒ P(j = ±) = 12 , d.h. Ej = 0, varj = 2
P
V1 ⇒ Gesamtfehler X = j j , also
3. Bedingte Wkt
4. Klass. Wkt.
E(X ) =
5. Zufallsvariablen
8. Exponential
E(j ) = 0
j=1
6. Diskrete ZV
7. Charakteristika
n
X
var(X ) =
n
X
var(j ) = n2 =: σ 2
j=1
9. Normal
Standardnormal
Berechnen von Wktn.
392 / 895
Fehlertheorie
Beweis des Satzes (2)
Stochastik für
InformatikerInnen
Wolfgang Kössler
Charakteristische Funktion von j :
∞
X (it)2k
1
φj (t) = E(e ) = (eit + e−it ) =
2
(2k)!
itj
1. Grundbegriffe
k =0
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
Charakteristische Funktion von X :
n
Y
t2
t4
φX (t)
=
φj (t) = (1 − 2 + 4 − + · · · )n
2!
4!
j=1
=
7. Charakteristika
8. Exponential
=
9. Normal
Standardnormal
→n→∞
t 2 σ2
1 n
+ o( )
2! n
n
t 2 σ 2 /2! n
1
1−
+o
n
n
−t 2 σ 2 /2
e
1−
Berechnen von Wktn.
393 / 895
Fehlertheorie
Beweis des Satzes (3)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
φX (t)
=
1−
→n→∞ e−t
t 2 σ 2 /2! n
1
+o
n
n
2 σ 2 /2
5. Zufallsvariablen
6. Diskrete ZV
Das ist die charakteristische Fkt. von N (0, σ 2 ).
7. Charakteristika
Die Behauptung folgt aus dem Konvergenzsatz.
8. Exponential
9. Normal
Standardnormal
Berechnen von Wktn.
394 / 895
Inhalt
Stochastik für
InformatikerInnen
Wolfgang Kössler
9.1 Standard-Normalverteilung
1. Grundbegriffe
9.2 Berechnen von Wahrscheinlichkeiten
2. Kombinatorik
9.3 k · σ–Intervalle
3. Bedingte Wkt
9.4 Zentraler Grenzwertsatz
4. Klass. Wkt.
9.5 Fehlertheorie
5. Zufallsvariablen
9.6 Maximale Entropie
6. Diskrete ZV
9.7 Summe normalverteilter Zufallsvariablen
7. Charakteristika
9.8 Treffen einer Zielscheibe
8. Exponential
9. Normal
Standardnormal
Berechnen von Wktn.
395 / 895
9.6 Maximale Entropie
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
Maximale Entropie bei gegebenen Erwartungswert µ
und Varianz σ 2 .
f : Wkt.dichte auf (−∞, ∞).
Z
Z
xf (x) dx = µ,
(x − µ)2 f (x) dx = σ 2
(∗)
4. Klass. Wkt.
5. Zufallsvariablen
Entropie:
6. Diskrete ZV
Z
7. Charakteristika
H(f ) := −
f (x) log f (x) dx
8. Exponential
9. Normal
ist zu maximieren unter den obigen Bedingungen (*).
Standardnormal
Berechnen von Wktn.
396 / 895
Maximale Entropie (2)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Satz:
Eine Dichtefunktion, die die Entropie unter den
obigen Bedingungen maximiert ist normal.
2. Kombinatorik
3. Bedingte Wkt
Zum Beweis verwenden wir die Jensensche
4. Klass. Wkt.
Ungleichung:
5. Zufallsvariablen
6. Diskrete ZV
Jensensche Ungleichung für konkave Funktionen
Es sei g eine differenzierbare und konkave Funktion,
7. Charakteristika
8. Exponential
9. Normal
Standardnormal
und sei X eine zufällige Variable. Dann gilt:
Eg(X ) ≤ g(EX ).
Berechnen von Wktn.
397 / 895
Maximale Entropie
Beweis der Jensenschen Ungleichung
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
Beweis: Sei T (x) die Tangente an die Kurve der
Funktion g im Punkt x0 ,
g(x) ≤ T (x) = g(x0 ) +
5. Zufallsvariablen
·(x − x0 ).
Anstieg der Kurve in x0
3. Bedingte Wkt
4. Klass. Wkt.
g 0 (x )
| {z0}
Wir setzen nun x := X und x0 := EX und erhalten:
g(X ) ≤ g(EX ) + g 0 (EX ) · (X − EX ).
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
Standardnormal
Berechnen von Wktn.
Daraus folgt:
Eg(X ) ≤ E(g(EX ) + g 0 (EX ) · (X − EX ))
= g(EX ) + g 0 (EX ) · E(X − EX ) = g(EX )
|
{z
}
=0
398 / 895
Maximale Entropie
Beweis des Satzes
Stochastik für
InformatikerInnen
Seien p und q beliebige Dichten. Da die
Wolfgang Kössler
Logarithmus-Funktion konkav ist folgt aus der
1. Grundbegriffe
Jensenschen Ungleichung:
Z
q
q
ln (x) p(x) dx = Ep ln (X )
p
p
q
≤ ln Ep (X )
p
Z
q
= ln
(x) p(x) dx
p
Z
= ln
q(x) dx = ln 1 = 0.
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
Standardnormal
Berechnen von Wktn.
Daraus folgt:
399 / 895
Maximale Entropie
Beweis des Satzes (2)
Stochastik für
Z
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
H(p) = −
Z
p ln p dx ≤ −
p ln q dx
Sei q wie folgt definiert:
ln q = α + β(x − µ) + γ(x − µ)2 ,
wobei α, β, γ so dass q Dichte, q ∼ (µ, σ 2 ).
Z
H(p) ≤ − p ln q dx
Z
= − p(x) α + β(x − µ) + γ(x − µ)2 dx
8. Exponential
9. Normal
= −(α + γσ 2 )
Standardnormal
Berechnen von Wktn.
feste obere Schranke für die Entropie.
400 / 895
Maximale Entropie
Beweis des Satzes (3)
Stochastik für
InformatikerInnen
Diese Schranke wird angenommen für p = q, also
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
ln p = α + β(x − µ) + γ(x − µ)2
p = eα+β(x−µ)+γ(x−µ)
2
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
Offen: Gibt es α, β, γ mit p Dichte und p ∼ (µ, σ 2 )?
√
Antwort: ja, α = − ln( 2πσ), β = 0, γ = − 2σ1 2 .
Die Lösung ist auch (i.W.) eindeutig, da in der
Jensenschen Ungleichung das Gleichheitszeichen
9. Normal
Standardnormal
nur gilt, wenn fast überall
p
q
= 1 gilt.
Berechnen von Wktn.
401 / 895
Inhalt
Stochastik für
InformatikerInnen
Wolfgang Kössler
9.1 Standard-Normalverteilung
1. Grundbegriffe
9.2 Berechnen von Wahrscheinlichkeiten
2. Kombinatorik
9.3 k · σ–Intervalle
3. Bedingte Wkt
9.4 Zentraler Grenzwertsatz
4. Klass. Wkt.
9.5 Fehlertheorie
5. Zufallsvariablen
9.6 Maximale Entropie
6. Diskrete ZV
9.7 Summe normalverteilter Zufallsvariablen
7. Charakteristika
9.8 Treffen einer Zielscheibe
8. Exponential
9. Normal
Standardnormal
Berechnen von Wktn.
402 / 895
9.7 Die Summe normalverteilter
Zufallsvariablen
Stochastik für
InformatikerInnen
Wolfgang Kössler
Satz: Seien X1 ∼ N (µ1 , σ12 )
X2 ∼ N (µ2 , σ22 )
unabhängig. Dann:
1. Grundbegriffe
X1 + X2 ∼ N (µ1 + µ2 , σ12 + σ22 )
2. Kombinatorik
3. Bedingte Wkt
Beweis: : (allgemeiner für n Zufallsvariablen)
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
Seien Xj u.a. Zufallsvariablen mit Xj ∼ N (µj , σj2 ).
P
Charakteristische Funktion von X = nj=1 Xj :
7. Charakteristika
8. Exponential
φX (t) =
Berechnen von Wktn.
2 2 /2
eitµj −σj t
= eitµ−σ
2 t 2 /2
j=1
9. Normal
Standardnormal
n
Y
wobei µ =
P
µj , σ 2 =
P
σj2 ⇒ X ∼ N (µ, σ 2 )
2
403 / 895
Inhalt
Stochastik für
InformatikerInnen
Wolfgang Kössler
9.1 Standard-Normalverteilung
1. Grundbegriffe
9.2 Berechnen von Wahrscheinlichkeiten
2. Kombinatorik
9.3 k · σ–Intervalle
3. Bedingte Wkt
9.4 Zentraler Grenzwertsatz
4. Klass. Wkt.
9.5 Fehlertheorie
5. Zufallsvariablen
9.6 Maximale Entropie
6. Diskrete ZV
9.7 Summe normalverteilter Zufallsvariablen
7. Charakteristika
9.8 Treffen einer Zielscheibe
8. Exponential
9. Normal
Standardnormal
Berechnen von Wktn.
404 / 895
9.8 Treffen einer Zielscheibe
Stochastik für
InformatikerInnen
Satz: Sei (X , Y ) zweidimensionale Zufallsvariable.
Wolfgang Kössler
Folgende Annahmen seien erfüllt:
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
V1: Die Randverteilungen von X und Y seien
stetig.
V2: Die Dichte h(x, y) von (X , Y ) hängt nur vom
p
Abstand x 2 + y 2 vom Nullpunkt ab
(Radialsymmetrie).
7. Charakteristika
8. Exponential
9. Normal
V3: Die Fehler in x- und y-Richtung sind
unabhängig.
Standardnormal
Berechnen von Wktn.
405 / 895
Treffen einer Zielscheibe
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Sei Z die zufällige Abweichung in beliebiger
2. Kombinatorik
Richtung. Dann gilt
3. Bedingte Wkt
4. Klass. Wkt.
Z ∼ N (0, σ 2 ).
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
Beweis: siehe Abschnitt Transformationsformel
.
2
8. Exponential
9. Normal
Standardnormal
Berechnen von Wktn.
406 / 895
10. Transformation von
Zufallsvariablen
Stochastik für
InformatikerInnen
Wolfgang Kössler
Sei X : Ω −→ R eine Zufallsvariable mit
1. Grundbegriffe
Verteilungsfunktion FX (x) = P(X < x).
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
Wir betrachten eine Funktion g : R −→ R und eine
Zufallsvariable Y : Ω −→ R mit Y = g(X ).
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
Y :
X
g
Ω −→ R ←→ R.
Y (ω) = g(X (ω)), ∀ω ∈ Ω.
8. Exponential
9. Normal
10.Transformation
407 / 895
Transformation von Zufallsvariablen
Stochastik für
InformatikerInnen
Wolfgang Kössler
Die zufällige Variable Y = g(X ) besitzt die
Verteilungsfunktion
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
FY (y) = P(Y < y) = P({ω : Y (ω) < y})
= P({ω : g(X (ω)) < y})
= P(X ∈ {x : g(x) < y}) = P(g(X ) < y)
|
{z
}
∈B1
6. Diskrete ZV
7. Charakteristika
= P(X ∈ g
−1
(y))
8. Exponential
9. Normal
Bem.: {x : g(x) < y} ∈ B 1 gilt, wenn die Funktion g
10.Transformation
meßbar ist.
408 / 895
Transformation von Zufallsvariablen
Stochastik für
InformatikerInnen
Wolfgang Kössler
Frage: Wie berechnen wir FY (y)?
1. Grundbegriffe
Fall 1: F diskret.
2. Kombinatorik
3. Bedingte Wkt
P(Y = y) = P(g(X ) = y)
4. Klass. Wkt.
= P(x : g(x) = y)
5. Zufallsvariablen
= P(x : x = g −1 (y))
6. Diskrete ZV
7. Charakteristika
8. Exponential
= P(X ∈ g −1 (y))
= P(g −1 (y))
9. Normal
10.Transformation
409 / 895
Transformation von Zufallsvariablen
F diskret, Beispiel
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
Sei Y = X 2 , wobei


1



X = 0



−1
also g(x) = x 2 , g −1 (y) =
√
mit Wkt.
1
4
mit Wkt.
1
2
mit Wkt.
1
4
y.
1
P(Y = 0) = P(X = 0) =
2
√
P(Y = 1) = P(X ∈ 1) = P(X = 1 ∨ X = −1)
1 1
1
=
+ =
4 4
2
410 / 895
Transformation von Zufallsvariablen
Fall 2: F stetig.
Stochastik für
InformatikerInnen
1.
Finde für jedes y:
Wolfgang Kössler
Ay = {x : g(x) < y}.
1. Grundbegriffe
2. Kombinatorik
2.
Die Verteilungsfunktion von Y ist
3. Bedingte Wkt
FY (y) = P(Y < y) = P(g(X ) < y)
4. Klass. Wkt.
Z
5. Zufallsvariablen
= P(x : g(x) < y) = P(Ay ) =
6. Diskrete ZV
7. Charakteristika
3.
Dichte von Y :
8. Exponential
9. Normal
fX (x) dx
Ay
fY (y) =
d
FY (y).
dy
10.Transformation
411 / 895
Transformation von Zufallsvariablen
Beispiel 1
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
X ∼ R(0, π2 )., d.h. X hat die Dichte

 2 , falls 0 ≤ x <
π
f (x) =
 0 , sonst
π
2
.
Welche Verteilung hat die ZV Y = sin(X ) ?
4. Klass. Wkt.
5. Zufallsvariablen
1.
Finde für jedes y, y ∈ (0, 1)
6. Diskrete ZV
7. Charakteristika
8. Exponential
Ay = {x : g(x) < y} = {x : sin(x) < y}
= {x : x < arcsin(y)}
9. Normal
10.Transformation
Offenbar Ay = ∅ für y ≤ 0 und Ay = R für y ≥ 1
412 / 895
Transformation von Zufallsvariablen
Beispiel 1 (Fortsetzung)
Stochastik für
InformatikerInnen
Wolfgang Kössler
2.
1. Grundbegriffe
Die Verteilungsfunktion von Y ist
Z
fX (x) dx
FY (y) = P(Y < y) =
Ay
2. Kombinatorik
3. Bedingte Wkt
=
4. Klass. Wkt.
5. Zufallsvariablen
3.
2
π
Z
arcsin(y )
dx =
0
2
arcsin(y)
π
Dichte von Y : Für y ∈ (0, 1):
6. Diskrete ZV
7. Charakteristika
fY (y) =
8. Exponential
9. Normal
10.Transformation
d
2
1
.
FY (y) = p
dy
π 1 − y2
fY (y) = 0 sonst.
413 / 895
Transformation von Zufallsvariablen
Beispiel 2
Stochastik für
InformatikerInnen
Wolfgang Kössler
Sei X stetig und X ∼ FX mit Dichte fX .
Welche Verteilung hat die ZV Y = FX (X ) ?
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
1.
Ay = {x : FX (x) < y} = {x : x < FX−1 (y)}
Offenbar Ay = ∅ für y ≤ 0 und Ay = R für y ≥ 1
2.
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
FY (y) = P(Y < y) = P(FX (X ) < y )
= P(X < FX−1 (y ))
Z
Z
=
fX (x) dx =
Ay
9. Normal
10.Transformation
FX−1 (y)
fX (x) dx
−∞
= FX (FX−1 (y )) − FX (−∞) = y
414 / 895
Transformation von Zufallsvariablen
Beispiel 2 (Fortsetzung)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
3.
Dichte von Y :
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV

1
fY (y) =
0
y ∈ (0, 1)
sonst.
D.h. Y ∼ R(0, 1)
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
415 / 895
Transformation von Zufallsvariablen
Beispiel 3
Stochastik für
InformatikerInnen
Wolfgang Kössler
Sei umgekehrt U ∼ R(0, 1) und F eine
1. Grundbegriffe
Verteilungsfunktion mit Dichte f .
2. Kombinatorik
Welche Verteilung hat die ZV Y = F −1 (U) ?
3. Bedingte Wkt
4. Klass. Wkt.
1.
Finde für jedes y
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
Ay = {u : F −1 (u) < y}
= {u : u < F (y)} = (0, F (y)).
8. Exponential
9. Normal
10.Transformation
416 / 895
Transformation von Zufallsvariablen
Beispiel 3 (Fortsetzung)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2.
Die Verteilungsfunktion von Y ist
FY (y) = P(Y < y) = P(F −1 (U) < y))
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
= P(U < F (y))
Z
Z
=
fU (u) du =
Ay
5. Zufallsvariablen
6. Diskrete ZV
Z
F (y )
fU (u) du
0
F (y)
du = F (y).
=
0
7. Charakteristika
8. Exponential
9. Normal
Also Y ∼ F .
10.Transformation
417 / 895
Transformation von Zufallsvariablen
Stochastik für
InformatikerInnen
Wolfgang Kössler
Unter gewissen Zusatzannahmen gilt
Transformationssatz:
1. Grundbegriffe
2. Kombinatorik
Sei X eine, auf (a, b) definierte (a = −∞, b = +∞ ist
3. Bedingte Wkt
erlaubt) Zufallsgröße mit Dichtefunktion f . Die
4. Klass. Wkt.
Funktion g : (a, b) −→ R sei differenzierbar mit
5. Zufallsvariablen
g 0 (x) 6= 0 für alle x ∈ (a, b). Dann hat die zufällige
6. Diskrete ZV
Variable Y = g(X ) auf dem Definitionsbereich von
7. Charakteristika
g −1 die Dichtefunktion
8. Exponential
9. Normal
10.Transformation
h(y) = f (g
−1
−1
dg
f (g −1 (y))
(y)) · (y) = 0 −1
.
dy
|g (g (y))|
418 / 895
Transformationssatz
Beweis, Fall 1: g 0 (x) > 0
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Bem.: Die Voraussetzung g 0 (x) 6= 0 für alle
x ∈ (a, b) bewirkt, dass die Funktion g auf dem
2. Kombinatorik
Intervall (a, b) streng monoton ist.
3. Bedingte Wkt
Fall 1: Es sei g 0 (x) > 0 ∀ x ∈ (a, b) und
4. Klass. Wkt.
y ∈ Db(g −1 ). Da g streng monoton wachsend
5. Zufallsvariablen
ist, ist die Menge Ay = (a, g −1 (y)) ein Intervall
6. Diskrete ZV
und die Dichte von Y ist gegeben durch
d
d
FY (y) =
(FX (g −1 (y)) − FX (−∞)).
dy
dy
Anwendung der Kettenregel liefert die
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
Behauptung.
419 / 895
Transformationssatz
Beweis, Fall 2: g 0 (x) < 0
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
Fall 2: Es gilt g 0 (x) < 0, für alle x ∈ (a, b), Da also
die Funktion g streng monoton fallend ist, ist
die Menge Ay = (g −1 (y), b) ein Intervall und die
Dichte von Y ist gegeben durch
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
d
d
FY (y) =
(FX (∞) − FX (g −1 (y)).
dy
dy
6. Diskrete ZV
Anwendung der Kettenregel liefert die
7. Charakteristika
Behauptung.
8. Exponential
9. Normal
Bem.: Beachten Sie, dass in der Formel des
10.Transformation
Satzes Betragsstriche stehen.
420 / 895
Transformationsformel
Beispiel 1
Stochastik für
InformatikerInnen
Die folgenden drei Beispiele wurden bereits oben
Wolfgang Kössler
behandelt. Sie folgen jetzt nochmal, diesmal direkte
1. Grundbegriffe
Anwendung des Satzes.
2. Kombinatorik
Es sei X ∼ R(0, π2 )., d.h. X hat die Dichte

 2 , falls 0 ≤ x < π
π
2
f (x) =
.
 0 , sonst
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
y = g(x) = sin x.
Für alle x ∈ [0, π2 [ gilt: 0 ≤ g(x) < 1.
g −1 (y) = arcsin y.
421 / 895
Transformationsformel
Beispiel 1 (Fortsetzung)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
Die Dichte von Y = sin X ist nach
Transformationsformel
d arcsin h(y) = f (arcsin y) · (y)
dy
1
= f (arcsin y) · p
1 − y2


 2√1
, falls 0 ≤ y < 1
π
1−y 2
=


0
, sonst.
9. Normal
10.Transformation
422 / 895
Transformationsformel
Beispiel 2
Stochastik für
InformatikerInnen
Es sei X Zufallsvariable mit Verteilungsfunktion
Wolfgang Kössler
F (x) = P(X < x) ∈ [0, 1[ und Dichte f .
1. Grundbegriffe
Die Dichte der Zufallsvariablen Y = F (X ) ist mittels
2. Kombinatorik
Transformationsformel (y ∈ (0, 1))
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
dF −1
(y)
dy
1
= f (F −1 (y)) · 0 −1
F (F (y))
−1
f (F (y))
=
=1
f (F −1 (y))
h(y) = f (F −1 (y)) ·
Folglich gilt: Y ∼ R(0, 1)
423 / 895
Transformationsformel
Beispiel 2 (Fortsetzung)
Stochastik für
InformatikerInnen
Wolfgang Kössler
Bem.: Wir haben also gezeigt: Wenn X ∼ F so ist
1. Grundbegriffe
die transformierte Zufallsvariable
2. Kombinatorik
3. Bedingte Wkt
Y = F (X ) ∼ R(0, 1)
4. Klass. Wkt.
5. Zufallsvariablen
Umgekehrt gilt: Ist U ∼ R(0, 1) und ist F eine
6. Diskrete ZV
beliebige Verteilungsfunktion, so ist
7. Charakteristika
Y = F −1 (U) ∼ F .
8. Exponential
9. Normal
Anwendung: Zufallszahlen (siehe später).
10.Transformation
424 / 895
Transformationsformel
Beipiel 4
Stochastik für
InformatikerInnen
Wolfgang Kössler
Es sei X :
Ω → R mit X ∼ Exp(λ), d.h.
F (x) = 1 − e−λ·x ,
x ≥ 0.
1. Grundbegriffe
2. Kombinatorik
Wegen U := F (X ) ∼ R(0, 1) erhalten wir eine
3. Bedingte Wkt
exponentialverteilte Zufallsvariable wie folgt:
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
u = F (x) = 1 − e−λ·x
e−λ·x = 1 − u
1
x = − ln(1 − u)
λ
X = − λ1 ln(1 − U) ∼ Exp(λ),
9. Normal
Die Zufallsgröße
10.Transformation
d.h. X ist exponentialverteilt mit dem Parameter λ.425 / 895
Transformationsformel
Beipiel 5
Stochastik für
InformatikerInnen
Wolfgang Kössler
Es sei X eine Zufallsgröße mit der Dichtefunktion f .
Weiter sei g die wie folgt definierte Funktion:
1. Grundbegriffe
2. Kombinatorik
g(x) = ax + b.
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
Wir betrachten die Zufallsgröße Y ,
Y = g(X ) = aX + b,
a 6= 0
6. Diskrete ZV
7. Charakteristika
und bezeichnen y := g(x). Dann gilt:
8. Exponential
9. Normal
10.Transformation
g −1 (y) = x =
y −b
.
a
426 / 895
Transformationsformel
Beipiel 5 (Fortsetzung)
Stochastik für
InformatikerInnen
Wolfgang Kössler
Für die Dichte der Zufallsvariable Y gilt nach dem
1. Grundbegriffe
Transformationssatz
2. Kombinatorik
3. Bedingte Wkt
h(y) = f (g
−1
−1
dg
y −b
1
(y) = f
·
(y)) · dy
a
|a|
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
Bem.: Im Fall der Normalverteilung,
X ∼ N (µ, σ 2 ), σ > 0, haben wir dieses Ergebnis
8. Exponential
9. Normal
bereits früher erhalten.
10.Transformation
427 / 895
Transformationsformel
Lineare Transformation, Normal
Stochastik für
f (x) = √
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
1
1
2πσ
e− 2 (
9. Normal
10.Transformation
).
Es sei (a = σ1 , b = σµ )
X −µ
bzw. X = σY + µ.
σ
Nach der in diesem Abschnitt hergeleiteten Formel
Y =
ergibt sich die Dichtefunktion h der Zufallsgröße Y :
!
y + σµ
1
y −b
1
= 1f
= σf (σy + µ)
h(y) =
f
1
|a|
a
σ
8. Exponential
x−µ 2
σ
) = √1 e− 12 y 2
2πσ
2π
Dichtefkt. einer Normal mit µ = 0 und σ 2 = 1
= σ√
1
σ
1
e− 2 (
σy+µ−µ 2
σ
428 / 895
Transformationsformel
Lineare Transformation, Normal (Fortsetzung)
Stochastik für
InformatikerInnen
D.h. Eine normalverteilte Zufallsgröße wird in eine
Wolfgang Kössler
standard–normalverteilte Zufallsgröße transformiert,
1. Grundbegriffe
indem der Parameter µ subtrahiert und anschließend
2. Kombinatorik
durch den Parameter σ dividiert wird. Sei also
3. Bedingte Wkt
X ∼ N (µ, σ 2 ),
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation


x − µ
X − µ
F (x) = P(X < x) = P 
<

σ }
σ
| {z
=Y x −µ
x −µ
= P Y <
=Φ
σ
σ
Es gilt: Y ∼ N (0, 1). (vgl. auch Abschnitt NV.)
429 / 895
Inhalt
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
11.1 Begriffe
2. Kombinatorik
11.2 Unabhängigkeit von Zufallsgrößen
3. Bedingte Wkt
11.3 Transformationssatz für Zufallsvektoren
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
430 / 895
11. Zufallsvektoren
Begriffe
Stochastik für
InformatikerInnen
Wolfgang Kössler
Def. 38 (zufälliger Vektor)
Es seien Xi , i = 1, . . . , p, reellwertige, zufällige
1. Grundbegriffe
Variablen auf dem Wahrscheinlichkeitsraum
2. Kombinatorik
(Ω, E, P). Dann heißt
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
X = (X1 , . . . , Xp )T
: Ω −→ Rp ,
zufälliger Vektor.
Er transformiert den Wahrscheinlichkeitsraum
(Ω, E, P) in den Wahrscheinlichkeitsraum
9. Normal
(Rp , B p , PX ), wobei B p die σ–Algebra der
10.Transformation
p–dimensionalen Borelmengen ist.
431 / 895
Mehrdimensionale Zufallsvariablen
Stochastik für
InformatikerInnen
Wolfgang Kössler
Def. 39 (Mehrdimensionale Verteilungsfunktion)
Die Funktion
1. Grundbegriffe
2. Kombinatorik
FX (x1 , . . . , xp ) := P({ω : X1 (ω) < x1 , . . . , Xp (ω) < xp })
3. Bedingte Wkt
4. Klass. Wkt.
heißt Verteilungsfunktion des zufälligen Vektors X.
5. Zufallsvariablen
Sie wird auch mit FX1 ,...,Xp (x1 , . . . , xp ) bezeichnet.
6. Diskrete ZV
Es gilt:
7. Charakteristika
8. Exponential
9. Normal
FX1 ,...,Xp (x1 , . . . , xp ) = P
p
\
!
{ω ∈ Ω : Xi (ω) < xi } .
i=1
10.Transformation
432 / 895
Mehrdimensionale Zufallsvariablen
Eigenschaften der Verteilungsfunktion
Stochastik für
InformatikerInnen
1
Invarianz gegenüber Permutationen, d.h.
Wolfgang Kössler
FX1 ,...,Xp (x1 , . . . , xp ) = FXi1 ,...,Xip (xi1 , . . . , xip )
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
2
lim FX (x1 , . . . , xp ) = FX1 ,...,Xp−1 (x1 , . . . , xp−1 );
xp →∞
4. Klass. Wkt.
5. Zufallsvariablen
FX (x1 , . . . , xp ) =
P({X1 < x1 , . . . , Xp−1 < xp−1 } ∩ Xp < xp ).
|
{z
} | {z }
6. Diskrete ZV
7. Charakteristika
=:A
−→xp →∞ Ω
8. Exponential
9. Normal
10.Transformation
lim FX (x1 , . . . , xp ) = P(A ∩ Ω) = P(A)
xp →∞
= FX1 ,...,Xp−1 (x1 , . . . , xp−1 ).
433 / 895
Mehrdimensionale Zufallsvariablen
Eigenschaften der Verteilungsfunktion (2)
Stochastik für
InformatikerInnen
Wolfgang Kössler
3
lim FX (x1 , . . . , xp ) = 0;
xp →−∞
1. Grundbegriffe
Bem.: Man kann wegen 1. auch jede beliebige
2. Kombinatorik
Komponente wählen!
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
4
5
6. Diskrete ZV
9. Normal
FX (x1 , . . . , xp ) = 1;
FX (x1 , . . . , xp ) ist in jedem Argument monoton
wachsend;
7. Charakteristika
8. Exponential
lim
(x1 ,...,xp )→(∞,...,∞)
6
FX (x1 , . . . , xp ) ist in jedem Argument linksseitig
stetig.
10.Transformation
434 / 895
Mehrdimensionale Zufallsvariablen
Stetige Verteilung
Stochastik für
InformatikerInnen
Ein zufälliger Vektor X = (X1 , . . . , Xp )T heißt stetig,
Wolfgang Kössler
1. Grundbegriffe
wenn seine Verteilungsfunktion charakterisiert ist
2. Kombinatorik
durch:
3. Bedingte Wkt
4. Klass. Wkt.
Zxp
Zx1
F (x1 , . . . , xp ) =
5. Zufallsvariablen
...
−∞
−∞
f (t1 , . . . , tp ) dtp . . . dt1 ,
| {z }
Dichtefunktion
6. Diskrete ZV
7. Charakteristika
8. Exponential
wobei für die Funktion f gilt:
1
9. Normal
2
10.Transformation
f (x1 , . . . , xp ) ≥ 0, ∀x1 , . . . , xp ;
R
f (x1 , . . . , xp ) dx1 . . . dxp = 1.
Rp
435 / 895
Mehrdimensionale Zufallsvariablen
Stetige Verteilung (2)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Die Funktion f (x1 , . . . , xp ) heißt dann Dichtefunktion
2. Kombinatorik
des zufälligen Vektors X.
3. Bedingte Wkt
Falls die Dichtefunktion f (x1 , . . . , xp ) stetig ist, so gilt:
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
f (x1 , . . . , xp ) =
∂ p FX (x1 , . . . , xp )
.
∂x1 . . . ∂xp
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
436 / 895
Mehrdimensionale Zufallsvariablen
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Def. 40 Ein zufälliger Vektor X = (X1 , . . . , Xp )T
heißt
2. Kombinatorik
diskret, falls jede Komponente von X diskret ist,
3. Bedingte Wkt
d.h. jedes Xi besitzt höchstens abzählbar viele
4. Klass. Wkt.
Argumente.
5. Zufallsvariablen
gemischt, falls einige seiner Komponenten
6. Diskrete ZV
7. Charakteristika
diskret, die restlichen dagegen stetig sind.
8. Exponential
stetig, falls alle Komponenten von X stetige
9. Normal
Zufallsgrößen sind.
10.Transformation
437 / 895
Mehrdimensionale Zufallsvariablen
X diskret
Stochastik für
InformatikerInnen
Wolfgang Kössler
Es sei X = (X1 , . . . , Xp )T ein diskreter zufälliger
1. Grundbegriffe
Vektor. Für i = 1, . . . , p habe Xi den Wertevorrat
2. Kombinatorik
{xi1 , . . . , xik , . . .}. Dann definieren wir:
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
pj...k = P(X1 = x1j , . . . , Xp = xpk ).
Verteilungsfunktion des zufälligen Vektors X:
6. Diskrete ZV
7. Charakteristika
F (x1 , . . . , xp ) = P
10.Transformation
!
{ω ∈ Ω : Xi (ω) < xi }
i=1
8. Exponential
9. Normal
p
\
X
=
j : x1j <x1
...
pj...k
k : xpk <xp
438 / 895
Mehrdimensionale Zufallsvariablen
X diskret, p = 2
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
Es sei p = 2 und X = (X1 , X2 )T .

x1 x2 . . . xn . . .

y1 y2 . . . yn . . .


X1 : 
p1 p2 . . . pn . . .
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential

X2 : 

q1 q2 . . . qn . . .
pij = P(X1 = xi , X2 = yj ) = P(X = (xi , yj )).
9. Normal
10.Transformation
439 / 895
Mehrdimensionale Zufallsvariablen
X diskret, p = 2 (2)
Stochastik für
InformatikerInnen
Weiterhin gilt:
Wolfgang Kössler
P(X1 ∈ {xi : i ∈ N}) = 1
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
P(X2 ∈ {yj : j ∈ N}) = 1
Wir bezeichnen:
4. Klass. Wkt.
5. Zufallsvariablen
X := {xi : i ∈ N},
Y := {yj : j ∈ N}.
6. Diskrete ZV
Der zufällige Vektor X kann Werte der Form
7. Charakteristika
(xi , yj ) ∈ X × Y annehmen,
8. Exponential
9. Normal
P(X ∈ X × Y) = P(X1 ∈ X , X2 ∈ Y) =
X
pij = 1.
i,j∈N
10.Transformation
440 / 895
Mehrdimensionale Zufallsvariablen
X diskret, p = 2 (3)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
P(X1 = xi ) = P({X1 = xi } ∩ Ω) = P({X1 = xi }∩
{(X = y1 ) ∨ (X2 = y2 ) ∨ . . . ∨ (X2 = yn ) ∨ . . .})
| 2
{z
}
S
=
{X2 =yj }=Ω
j∈I N
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation


= P({X1 = xi } ∩ 
[
{X2 = yj }
j∈N


[
=P
{(X1 = xi ) ∧ (X2 = yj )}
j∈N
=
X
j∈N
pij =: pi·
441 / 895
Mehrdimensionale Zufallsvariablen
X diskret, p = 2 (4)
Stochastik für
InformatikerInnen
Wir erhalten also:
Wolfgang Kössler
pi· = P(X1 = xi ).
1. Grundbegriffe
2. Kombinatorik
Analog erhalten wir, wenn wir die Betrachtung mit
3. Bedingte Wkt
der zufälligen Variable X2 wiederholen:
4. Klass. Wkt.
p·j = P(X2 = yj ).
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
Def. 41 (Randwahrscheinlichkeiten)
Die Wahrscheinlichkeiten pi· bzw. p·j (i, j ∈ N)
9. Normal
nennen wir die Randwahrscheinlichkeiten des
10.Transformation
zufälligen Vektors X = (X1 , X2 )T .
442 / 895
Mehrdimensionale Zufallsvariablen
Kontingenztafel
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
X2
X1 \
y1
y2
y3
...
yj
...
yn
...
P
x1
p11 p12 p13 . . . p1j . . . p1n . . . p1·
x2
p21 p22 p23 . . . p2j . . . p2n . . . p2·
x3
..
.
p31 p32 p33 . . . p3j . . . p3n . . . p3·
..
..
..
..
..
..
.
.
.
.
.
.
xi
..
.
P
pi1
..
.
pi2
..
.
pi3 . . . pij
..
..
.
.
. . . pin . . . pi·
..
..
.
.
p·1
p·2
p·3 . . . p·j
. . . p·n . . .
1
10.Transformation
443 / 895
Mehrdimensionale Zufallsvariablen
Beispiel 1
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
Umfrage zum Thema “Sport”
Dabei werden Männer und Frauen darüber befragt,
ob sie Sportler oder Nichtsportler sind. Das ergibt
die beiden folgenden Zufallsvariablen:

 1 , falls weiblich
X1 =
 2 , falls männlich
7. Charakteristika
8. Exponential
9. Normal
X2

 1 , falls Sportler
=
 2 , falls Nichtsportler
10.Transformation
444 / 895
Mehrdimensionale Zufallsvariablen
Beispiel 1 (Fortsetzung)
Stochastik für
InformatikerInnen
Schema für den zufälligen Vektor X = (X1 , X2 )T :
Wolfgang Kössler
X2
1. Grundbegriffe
X1 \
2. Kombinatorik
3. Bedingte Wkt
1
2
1
p11 p12
2
p21 p22
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
2 × 2–Kontingenztafel:
X2
X1 \
1
2
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
1
n11 n12 n1·
2
n21 n22 n2·
n·1
n·2
n··
445 / 895
Mehrdimensionale Zufallsvariablen
Beispiel 1 (Fortsetzung, 2)
Stochastik für
InformatikerInnen
nij – die Anzahl der Personen mit dem
Wolfgang Kössler
Geschlecht i und dem Sportverhalten j;
1. Grundbegriffe
2. Kombinatorik
n·1 – die Anzahl der Sportler;
3. Bedingte Wkt
n·2 – die Anzahl der Nichtsportler;
4. Klass. Wkt.
n1· – die Anzahl der Frauen;
5. Zufallsvariablen
6. Diskrete ZV
n2· – die Anzahl der Männer;
n·· – die Gesamtzahl der Befragten.
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
Mit p̂ij =
nij
n··
ergibt sich nun eine Schätzung für die
Wahrscheinlichkeit pij .
446 / 895
Mehrdimensionale Zufallsvariablen
Beispiel 2
Stochastik für
InformatikerInnen
Werfen zweier Würfel
Wolfgang Kössler
Wir betrachten den zufälligen Vektor X = (X1 , X2 )T ,
1. Grundbegriffe
wobei X1 die Augenzahl des ersten Würfels ist und
2. Kombinatorik
X2 die des zweiten. Für die zufälligen Variablen X1
3. Bedingte Wkt
und X2 gilt:
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential

X1 , X2 :
1 2 3 4 5 6
1
6
1
6
1
6
1
6
1
6

Da die Würfel voneinander unabhängig sind, gilt
9. Normal
10.Transformation
1
6

pij = P(X1 = i, X2 = j) =
1
1 1
· =
6 6
36
447 / 895
Mehrdimensionale Zufallsvariablen
Beispiel 2 (Fortsetzung)
Stochastik für
InformatikerInnen
Damit erhalten wir das folgende Schema:
Wolfgang Kössler
X2
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
X1 \
1
2
3
4
5
6
1
1
36
1
36
1
36
1
36
1
36
1
36
2
1
36
1
36
1
36
1
36
1
36
1
36
3
1
36
1
36
1
36
1
36
1
36
1
36
4
1
36
1
36
1
36
1
36
1
36
1
36
5
1
36
1
36
1
36
1
36
1
36
1
36
6
1
36
1
36
1
36
1
36
1
36
1
36
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
448 / 895
Mehrdimensionale Zufallsvariablen
Beispiel 2 (Fortsetzung)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
P(X1 < 4, X2 < 3) =
X
i<4; j<3
pij =
6
1
=
36
6
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
Die hier addierten Wahrscheinlichkeiten sind in dem
oben angegebenen Schema eingerahmt.
5. Zufallsvariablen
6. Diskrete ZV
Die Aussagen zu zweidimensionalen zufälligen
7. Charakteristika
Vektoren, die wir bis hierher gemacht haben, gelten
8. Exponential
analog erweitert auch für höherdimensionale
9. Normal
zufällige Vektoren.
10.Transformation
449 / 895
Mehrdimensionale Zufallsvariablen
X stetig, p = 2
Stochastik für
InformatikerInnen
Wolfgang Kössler
Zweidimensionale Dichtefunktion f (x, y)
+∞
R
R +∞
1
f (x, y) dx dy = 1;
1. Grundbegriffe
2. Kombinatorik
−∞ −∞
2
f (x, y) ≥ 0, ∀(x, y) ∈ R2 .
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
Zweidimensionale Verteilungsfunktion
Rx Ry
F (x, y) =
f (u, v ) du dv = P(X1 < x, X2 < y).
−∞ −∞
Da f (x, y) stetig ist, gilt weiterhin:
8. Exponential
9. Normal
10.Transformation
f (x, y) =
∂ 2 F (x, y)
.
∂x ∂y
450 / 895
Mehrdimensionale Zufallsvariablen
X stetig, p = 2 (Fortsetzung)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
lim F (x, y) = FX1 (x) = P(X1 < x).
y →∞
lim F (x, y) = FX2 (y) = P(X2 < y).
x→∞
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
Randverteilungen, Randverteilungsfunktionen
Die Verteilungsfunktionen FX1 und FX2 bezeichnen
wir als Randverteilungen von X1 bzw. X2 .
9. Normal
10.Transformation
451 / 895
Mehrdimensionale Zufallsvariablen
X stetig, p = 2 (Fortsetzung)
Stochastik für
InformatikerInnen
Wolfgang Kössler
Integrieren wir die Dichtefunktion nur nach einer der
1. Grundbegriffe
beiden Variablen, so erhalten wir:
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
Z+∞
dFX1 (x)
f (x, y) dy =
=: fX1 (x)
dx
−∞
Z+∞
dFX2 (y)
f (x, y) dx =
=: fX2 (y)
dy
−∞
8. Exponential
9. Normal
10.Transformation
452 / 895
Mehrdimensionale Zufallsvariablen
X stetig, p = 2 (Fortsetzung, 2)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Def. 42 (Randdichten)
Die Funktionen fX1 und fX2 bezeichnen wir als
Randdichten von X1 bzw. X2 .
2. Kombinatorik
3. Bedingte Wkt
Offenbar,
4. Klass. Wkt.
5. Zufallsvariablen
Zx
FX1 (x) =
6. Diskrete ZV
−∞
Zy
7. Charakteristika
8. Exponential
9. Normal
fX1 (t) dt
FX2 (y) =
fX2 (t) dt
−∞
10.Transformation
453 / 895
Mehrdimensionale Zufallsvariablen
X stetig, p = 2 (Fortsetzung)
Stochastik für
InformatikerInnen
Zweidimensionale Normalverteilung
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
454 / 895
Inhalt
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
11.1 Begriffe
2. Kombinatorik
11.2 Unabhängigkeit von Zufallsgrößen
3. Bedingte Wkt
11.3 Transformationssatz für Zufallsvektoren
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
455 / 895
11.2 Unabhängigkeit von
Zufallsgrößen
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Def. 43 (Unabhängigkeit)
Es seien X1 und X2 zwei zufällige Variablen auf dem
2. Kombinatorik
Wahrscheinlichkeitsraum (Ω, E, P). Diese beiden
3. Bedingte Wkt
zufälligen Variablen X1 und X2 heißen
4. Klass. Wkt.
stochastisch unabhängig, wenn für alle A, B ∈ B 1 gilt:
5. Zufallsvariablen
6. Diskrete ZV
P(X1 ∈ A, X2 ∈ B) = P(X1 ∈ A) · P(X2 ∈ B);
7. Charakteristika
oder kürzer:
8. Exponential
P(A ∩ B) = P(A) · P(B).
9. Normal
10.Transformation
456 / 895
Unabhängigkeit von Zufallsgrößen
Verteilungsfunktion
Stochastik für
InformatikerInnen
Wolfgang Kössler
Es sei X = (X1 , X2 )T ein zufälliger Vektor, für den gilt,
1. Grundbegriffe
daß die zufälligen Variablen X1 und X2 stochastisch
2. Kombinatorik
unabhängig sind. Dann gilt:
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
FX1 ,X2 (x1 , x2 ) = P(X1 < x1 , X2 < x2 )
= P(X1 ∈ (−∞, x1 ), X2 ∈ (−∞, x2 ))
| {z }
| {z }
A∈B1
B∈B1
= P(X1 ∈ (−∞, x1 )) · P(X2 ∈ (−∞, x2 ))
= FX1 (x1 ) · FX2 (x2 )
9. Normal
10.Transformation
457 / 895
Unabhängigkeit von Zufallsgrößen
F stetig
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
Aus der letzten Aussage folgt:
Z x1 Z x2
Z x1
Z
fX (t1 , t2 ) dt1 dt2 =
fX1 (t1 ) dt1
−∞
−∞
−∞
x2
fX2 (t2 ) dt2
−∞
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
Z
x1
Z
x2
(fX (t1 , t2 )−fX1 (t1 )fX2 (t2 )) dt1 dt2 = 0 ∀x1 , x2 ∈ R
−∞
D.h.
−∞
fX (t1 , t2 ) = fX1 (t1 )fX2 (t2 ) ∀t1 , t2
8. Exponential
9. Normal
10.Transformation
458 / 895
Unabhängigkeit von Zufallsgrößen
Stochastik für
InformatikerInnen
Wolfgang Kössler
Ist der zufällige Vektor X = (X1 , X2 )T stetig, so
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
fX1 ,X2 (x1 , x2 ) = fX1 (x1 ) · fX2 (x2 ) .
{z
}
{z
} |
|
zweidimensio–
nale Dichte
Randdichten
4. Klass. Wkt.
5. Zufallsvariablen
Ist der zufällige Vektor X = (X1 , X2 )T diskret, so
6. Diskrete ZV
folgt für alle i, j = 1, . . .:
7. Charakteristika
8. Exponential
pij = pi. · p.j .
9. Normal
10.Transformation
459 / 895
Unabhängigkeit von Zufallsgrößen
Beispiel
Stochastik für
Es seien einige Einzelwahrscheinlichkeiten pij einer
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
diskreten zweidimensionalen Zufallsvariablen (X , Y )
bekannt (fett eingetragen).
Die Komponenten X und Y seien unabhängig.
Bestimmen Sie die restlichen Einträge!
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
X \Y
1
2
3
pi.
-1
0.02 0.06 0.12
0.20
0
0.03 0.09 0.18
0.30
1
0.05 0.15 0.30
0.50
p.j
0.10 0.30 0.60
1
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
460 / 895
Unabhängigkeit von Zufallsgrößen
Beispiel (Fortsetzung)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
EX = −1 · 0.2 + 0 · 0.3 + 1 · 0.5 = 0.3
EY = 1 · 0.1 + 2 · 0.3 + 3 · 0.6 = 2.5
E(X · Y ) = −0.02 − 2 · 0.06 − 3 · 0.12 + 0 · (. . .)
5. Zufallsvariablen
+1 · 0.05 + 2 · 0.15 + 3 · 0.3 = 0.75
6. Diskrete ZV
7. Charakteristika
cov (X , Y ) = E(X · Y ) − (EX )(EY ) = 0.75 − 0.75 = 0
8. Exponential
9. Normal
Merkwürdig?
10.Transformation
461 / 895
Unabhängigkeit von Zufallsgrößen
Stochastik für
Wolfgang Kössler
Satz
Es seien X1 und X2 zwei zufällige Variablen. ϕ und ψ
1. Grundbegriffe
seien zwei beliebige B 1 –meßbare Transformationen
2. Kombinatorik
dieser beiden Variablen,
InformatikerInnen
3. Bedingte Wkt
4. Klass. Wkt.
X10 = ϕ(X1 ),
X20 = ψ(X2 ).
5. Zufallsvariablen
6. Diskrete ZV
Die zufälligen Variablen X1 und X2 sind genau dann
7. Charakteristika
stochastisch unabhängig, wenn die Zufallsgrößen X10
8. Exponential
und X20 , für alle Transformationen ϕ und ψ,
9. Normal
unabhängig sind.
10.Transformation
462 / 895
Unabhängigkeit von Zufallsgrößen
Beweis des Satzes, Anmerkungen
Stochastik für
InformatikerInnen
Wolfgang Kössler
Die Funktionen ϕ und ψ seien auf der Menge R
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
definiert und reellwertig. Dann gilt für die jeweilige
Umkehrfunktion genau dann
ϕ−1 (A) = {x : ϕ(x) ∈ A} ∈ B 1 ,
∀A ∈ B 1
ψ −1 (B) = {y : ψ(y) ∈ B} ∈ B 1 ,
∀B ∈ B 1 ,
7. Charakteristika
8. Exponential
wenn ϕ und ψ B 1 –meßbar sind.
9. Normal
10.Transformation
463 / 895
Unabhängigkeit von Zufallsgrößen
Beweis des Satzes (=⇒)
Stochastik für
InformatikerInnen
Es seien die zufälligen Variablen X1 und X2
Wolfgang Kössler
stochastisch unabhängig. Wir zeigen, daß ϕ(X1 ) und
1. Grundbegriffe
ψ(X2 ) unabhängig sind. Da die Funktionen ϕ und ψ
2. Kombinatorik
B 1 –meßbar sind, gilt
3. Bedingte Wkt
P(ϕ(X1 ) ∈ A, ψ(X2 ) ∈ B)
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
= P(X1 ∈ ϕ−1 (A), X2 ∈ ψ −1 (B))
= P(X1 ∈ ϕ−1 (A)) · P(X2 ∈ ψ −1 (B))
= P(ϕ(X1 ) ∈ A) · P(ψ(X2 ) ∈ B)
9. Normal
D.h. die zufälligen Variablen ϕ(X1 ) und ψ(X2 ) sind
10.Transformation
unabhängig.
464 / 895
Unabhängigkeit von Zufallsgrößen
Beweis des Satzes (⇐=)
Stochastik für
InformatikerInnen
Wolfgang Kössler
Es gelte also, daß für alle B 1 –meßbaren Funktionen
1. Grundbegriffe
ϕ und ψ die zufälligen Variablen ϕ(X1 ) und ψ(X2 )
2. Kombinatorik
unabhängig sind. Insbesondere ist das dann auch
3. Bedingte Wkt
der Fall für die Funktionen ϕ(x) ≡ ψ(x) ≡ x. D.h.
4. Klass. Wkt.
5. Zufallsvariablen
X1 = ϕ(X1 ),
X2 = ψ(X2 ).
6. Diskrete ZV
7. Charakteristika
Folglich sind auch die zufälligen Variablen X1 und X2
8. Exponential
unabhängig.
9. Normal
10.Transformation
465 / 895
Unabhängigkeit von Zufallsgrößen
Beispiel 2
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Sei X ∼ N (0, 1).
X und Y = X 2 sind nicht unabhängig, sogar
2. Kombinatorik
funktional abhängig
3. Bedingte Wkt
X und Y sind unkorreliert, wegen EX = 0 und
4. Klass. Wkt.
5. Zufallsvariablen
cov (X , Y ) = E(X · X 2 ) − EX · EY = EX 3 = 0,
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
da X symmetrisch ist.
Die Aussage gilt also für beliebige symmetrische
Zufallsvariablen X mit endlicher Varianz.
10.Transformation
466 / 895
Inhalt
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
11.1 Begriffe
2. Kombinatorik
11.2 Unabhängigkeit von Zufallsgrößen
3. Bedingte Wkt
11.3 Transformationssatz für Zufallsvektoren
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
467 / 895
11.3 Transformationssatz für
Zufallsvektoren
Stochastik für
InformatikerInnen
Wolfgang Kössler
Es sei X = (X1 , . . . , Xp )T ein zufälliger Vektor mit der
1. Grundbegriffe
Dichtefunktion f (x1 , . . . , xp ). Es sei g : Rp −→ Rp eine
2. Kombinatorik
umkehrbar eindeutige Abbildung. Sie ordnet einem
3. Bedingte Wkt
Vektor x = (x1 , . . . , xp )T einen Vektor
4. Klass. Wkt.
y = (y1 , . . . , yp )T zu und besteht aus Teilabbildungen
5. Zufallsvariablen
g1 , . . . , gp mit
6. Diskrete ZV
gi : Rp −→ R (für alle i = 1, . . . , p).
7. Charakteristika
8. Exponential
9. Normal
Beispiel
y = g(x) = A · x, wobei A reguläre (p, p)–Matrix.
10.Transformation
468 / 895
Transformationssatz für
Zufallsvektoren (2)
Stochastik für
InformatikerInnen
Wolfgang Kössler
Die Umkehrabbildung g −1 : Rp −→ Rp ist durch
Funktionen xi = ψi (y1 , . . . , yp ) definiert (i = 1, . . . , p).
1. Grundbegriffe
Die Funktionen ψi (i = 1, . . . , p) existieren wegen der
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
umkehrbaren Eindeutigkeit der Funktion g.

 
 y1   ψ1 (y1 , . . . , yp )
 .  
..
.  
g −1 (y) = g −1 
.
 . =

 
yp
ψp (y1 , . . . , yp )


 
 
=
 
 

x1
..
.
xp
8. Exponential
9. Normal
g −1 (y) = (ψ1 (y), . . . , ψp (y))T = x
Kurzform
10.Transformation
469 / 895





Transformationssatz für
Zufallsvektoren (3)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
Wir definieren nun einen weiteren zufälligen Vektor
Y = (Y1 , . . . , Yp )T wie folgt:
Y = g(X) := (g1 (X1 , . . . , Xp ), . . . , gp (X1 , . . . , Xp ))T
3. Bedingte Wkt
und nehmen an, die gi (i = 1, . . . , p) besitzen stetige
4. Klass. Wkt.
partielle Ableitungen nach allen Argumenten.
5. Zufallsvariablen
Für den zufälligen Vektor X gilt umgekehrt:
6. Diskrete ZV
7. Charakteristika
X = (X1 , . . . , Xp )T
8. Exponential
= (ψ1 (Y1 , . . . , Yp ), . . . , ψp (Y1 , . . . , Yp ))T
9. Normal
= g −1 (Y1 , . . . , Yp ) = g −1 (Y).
10.Transformation
470 / 895
Transformationssatz für
Zufallsvektoren (4)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Satz (Dichte von Y = g(X)), ohne Beweis
Die Zufallsvariable X habe die Dichte f . Die Dichte
der Zufallsvariablen Y = g(X) ist
2. Kombinatorik
3. Bedingte Wkt
hY (y1 , . . . , yp ) = f (ψ1 (y1 , . . . , yp ), . . . , ψp (y1 , . . . , yp ))·|J|,
4. Klass. Wkt.
5. Zufallsvariablen
wobei
6. Diskrete ZV
7. Charakteristika
J = det
∂ψi (y1 , . . . , yp )
∂yj
i,j=1,...,p
8. Exponential
9. Normal
die sogenannte Jacobi-Determinante ist.
10.Transformation
471 / 895
Transformationssatz für
Zufallsvektoren (5)
Stochastik für
InformatikerInnen
Wolfgang Kössler
Faltung
1. Grundbegriffe
Es sei X = (X1 , X2 )T ein zufälliger Vektor (p = 2), mit
2. Kombinatorik
unabhängigen Komponenten X1 und X2 . Die Dichte
3. Bedingte Wkt
fX1 ,X2 von X sei
4. Klass. Wkt.
5. Zufallsvariablen
fX1 ,X2 (x1 , x2 ) = fX1 (x1 ) · fX2 (x2 ).
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
Es sei Y = g(X) ein weiterer zufälliger Vektor,
X1 + X2
Y1
g1 (X1 , X2 )
=
.
Y=
=
Y2
g2 (X1 , X2 )
X2
10.Transformation
472 / 895
Faltung (2)
Stochastik für
InformatikerInnen
Wir suchen die Dichte des zufälligen Vektors Y.
Wolfgang Kössler
Zunächst wissen wir, daß die Funktion g aus zwei
1. Grundbegriffe
Teilfunktionen g1 und g2 besteht:
2. Kombinatorik
g1 (X1 , X2 ) = Y1 = X1 + X2
3. Bedingte Wkt
4. Klass. Wkt.
g2 (X1 , X2 ) = Y2 = X2
5. Zufallsvariablen
6. Diskrete ZV
bzw.
7. Charakteristika
8. Exponential
9. Normal
g1 (x1 , x2 ) = y1 = x1 + x2
g2 (x1 , x2 ) = y2 = x2
10.Transformation
473 / 895
Faltung (3)
Stochastik für
InformatikerInnen
Wolfgang Kössler
Die Umkehrfunktion g −1 besteht aus den beiden
Teilfunktionen:
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
ψ1 (y1 , y2 ) = x1 = y1 − y2
ψ2 (y1 , y2 ) = x2 = y2
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
Wir bestimmen nun die Zahl |J|:



 ∂x1
∂x1
1 −1 ∂y
∂y
1
2
 = 1
 = det 
|J| = det 
∂x2
∂x2
0 1
∂y1
∂y2
10.Transformation
474 / 895
Faltung (4)
Stochastik für
InformatikerInnen
Dichte des zufälligen Vektors Y = (X1 + X2 , X2 ):
Wolfgang Kössler
1. Grundbegriffe
hY (y1 , y2 ) = fX1 ,X2 (ψ1 (y1 , y2 ), ψ2 (y1 , y2 )) · |1|
= fX1 ,X2 (y1 − y2 , y2 )
2. Kombinatorik
= fX1 (y1 − y2 ) · fX2 (y2 )
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
Randdichte für Y1 = X1 + X2 :
Z+∞
hY1 (y1 ) =
hY (y1 , y2 ) dy2
−∞
8. Exponential
9. Normal
10.Transformation
Z+∞
=
fX1 (y1 − y2 ) · fX2 (y2 ) dy2 =: fX1 ∗ fX2 (y)
−∞
475 / 895
Faltung (5)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Def. 44 (Faltung)
Die Verknüpfung fX1 ∗ fX2 zweier Funktionen f1 und f2
heißt Faltung aus f1 und f2 .
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
Bem.: Die Dichte der Summe zweier unabhängiger
Zufallsvariablen ist Faltung der beiden Einzeldichten.
5. Zufallsvariablen
6. Diskrete ZV
X1 , X2 ∼ R(0, 1), Y wie im letzten Beispiel
7. Charakteristika
Dichtefunktion von Y1 = X1 + X2 :
8. Exponential
9. Normal
10.Transformation
Z1
hY1 (y) =
0
Z1
fX1 (y − x) · fX2 (x) dx =
| {z }
≡1
fX1 (y − x) dx
0
476 / 895
Faltung (6)
Stochastik für
InformatikerInnen
Es gilt: 0 ≤ Xi < 1,
i = 1, 2., d.h.
Wolfgang Kössler
0 ≤ X1 + X2 = Y1 < 2.
1. Grundbegriffe
2. Kombinatorik
und für die Funktion fX1 :
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation

 1
fX1 (y − x) =
 0



1



=
1




 0
, falls 0 ≤ y − x ≤ 1
, sonst
, falls 0 ≤ y − 1 ≤ x ≤ 1 < y
, falls 0 ≤ x < y ≤ 1
, falls y − x ∈
/ [0, 1[
477 / 895
Faltung (7)
Randdichte Y1 von Y
Z1
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
hY1 (y) =
fX1 (y − x) dx
0

R1



dx



y
−1
 y
R
=
dx



0




0



2−y



=
y




 0
, falls 1 < y < 2
, falls 0 ≤ y ≤ 1
, falls y ∈
/ [0, 2[
, falls 1 < y < 2
, falls 0 ≤ y ≤ 1
, falls y ∈
/ [0, 2[
478 / 895
Faltung (8)
Stochastik für
InformatikerInnen
Wolfgang Kössler
Wir addieren drei zufällige Variablen X1 , X2 , X3 ,
Xi ∼ R(0, 1),
1. Grundbegriffe
Y3 = (X1 + X2 ) + X3 .
2. Kombinatorik
3. Bedingte Wkt
Für die Dichtefunktion der Zufallsgröße Y3 gilt dann
4. Klass. Wkt.
nach der Faltungsformel:
5. Zufallsvariablen
6. Diskrete ZV
hY3 (z) = hY1
7. Charakteristika
−∞
Z1
8. Exponential
9. Normal
10.Transformation
Z+∞
∗ fX3 (z) =
hY1 (z − x) · fX3 (x) dx
Z1
hY1 (z − x) · fX3 (x) dx =
=
0
hY1 (z − x) dx
0
479 / 895
Faltung (9)
Das letzte Integral ist gleich
Stochastik für
InformatikerInnen
1
Fall 1: 0 < z < 1
2
Fall 2: 1 < z < 2
=
Wolfgang Kössler
1. Grundbegriffe
Z
Rz
0
(z − x) dx =
z−1
Z
0
3. Bedingte Wkt
Z
1
=
6. Diskrete ZV
8. Exponential
9. Normal
3
Z
t dt −
2−z
5. Zufallsvariablen
z−1
t dt
1
1
(1 − (2 − z)2 − (z − 1)2 + 1)
2
Fall 3: 2 < z < 3
Z 1
Z
(x − (z − 2)) dx =
z−2
(z − x) dx
z−1
=
4. Klass. Wkt.
7. Charakteristika
1
(2 − z + x) dx +
2. Kombinatorik
z2
2
0
3−z
t dt =
(3 − z)2
2
10.Transformation
480 / 895
Faltung (10)
Stochastik für
InformatikerInnen
Wegen 0 ≤ Xi < 1 folgt dann:
Wolfgang Kössler
1. Grundbegriffe
0 ≤ (X1 + X2 ) + X3 = Y1 + X3 = Y3 < 3.
2. Kombinatorik
Für die Dichte der Summe der drei Zufallsgrößen X1 ,
3. Bedingte Wkt
X2 und X3 gilt also:



0





 z2
2
hY3 (z) =
(z−1)2


1
−
−

2




 (3−z)2
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
2
, falls z ∈
/ [0, 3[
, falls 0 ≤ z ≤ 1
(2−z)2
2
, falls 1 < z ≤ 2
, falls 2 < z < 3
10.Transformation
481 / 895
Faltung (Veranschaulichung)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Seien Xi ∼ R(0, 1), i = 1, 2, 3
P
Verteilungsfunktion von ni=1 Xi :
n=1
n=2
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
n=3
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
482 / 895
Faltung (10)
Stochastik für
InformatikerInnen
Vermutung:
Wolfgang Kössler
Die Summe unabhängiger Zufallsgrößen nähert sich
1. Grundbegriffe
bei wachsender Zahl der Zufallsgrößen einer
2. Kombinatorik
Normalverteilung.
3. Bedingte Wkt
4. Klass. Wkt.
Diese Vermutung ist richtig.
5. Zufallsvariablen
Sie gilt sogar (unter sehr allgemeinen
6. Diskrete ZV
Voraussetzungen, wie var (Xi ) < ∞) unabhängig
7. Charakteristika
davon, welche Verteilung diese Zufallsgrößen vorher
8. Exponential
hatten (Normal–, Gleich–, Exponentialverteilung
9. Normal
oder diskret). Wir kommen später beim Zentralen
10.Transformation
Grenzwertsatz noch einmal darauf zurück.
483 / 895
Box-Müller Transformation (1)
Stochastik für
InformatikerInnen
Wolfgang Kössler
B OX–M ÜLLER–Transformation
Es seien U1 und U2 zwei unabhängige, über dem
1. Grundbegriffe
Intervall [0, 1[ gleichverteilte Zufallsgrößen
2. Kombinatorik
(Ui ∼ R(0, 1), i = 1, 2), U = (U1 , U2 )T ein zufälliger
3. Bedingte Wkt
Vektor. Wir betrachten den zufälligen Vektor
4. Klass. Wkt.
V = g(U) = (X , Y )T , wobei:
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
p
−2 ln U1 · cos 2πU2
p
−2 ln U1 · sin 2πU2
Y = g2 (U1 , U2 ) =
X = g1 (U1 , U2 ) =
9. Normal
Wir suchen die Dichtefunktionen für die zufälligen
10.Transformation
Variablen X und Y .
484 / 895
Box-Müller Transformation (2)
Stochastik für
InformatikerInnen
Wolfgang Kössler
Wir bestimmen zunächst die Umkehrfunktion zur
Abbildung g. Es gilt:
1. Grundbegriffe
2. Kombinatorik
U = g −1 (V) = (ψ1 (X , Y ), ψ2 (X , Y )).
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
Zur Bestimmung der ψ1 und ψ2 berechnen wir
X 2 + Y 2 = (−2 ln U1 · cos2 (2πU2 )) +
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
(−2 ln U1 · sin2 (2πU2 ))
= (−2 ln U1 ) · (cos2 (2πU2 ) + sin2 (2πU2 ))
= −2 ln U1
10.Transformation
485 / 895
Box-Müller Transformation (3)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Durch Umstellen erhalten wir:
1
U1 = ψ1 (X , Y ) = e− 2 (X
2 +Y 2 )
.
2. Kombinatorik
3. Bedingte Wkt
Weiterhin gilt:
Y
= tan 2πU2 .
X
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
Daraus folgt:
1
arctan
U2 = ψ2 (X , Y ) =
2π
Y
X
.
9. Normal
10.Transformation
486 / 895
Box-Müller Transformation (4)
Bestimmung von |J|.
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
∂ψ1 ∂ψ1 ∂x ∂y |J| = ∂ψ2 ∂ψ2 ∂x
∂y
1
1
2
2
2
2
−x · exp(− 2 (x + y )) −y · exp(− 2 (x + y ))
= −y
1
1
1
“
”
“
”
·
·
2
2
2π
2π
1+ y 2 ·x 2
1+ y 2 ·x
x
x
1
x2
1 2
y2
2
= −
exp − (x + y ) ·
+
2π
2
x2 + y2 x2 + y2 1 − 1 (x 2 +y 2 )
=
e 2
2π
10.Transformation
487 / 895
Box-Müller Transformation (5)
Stochastik für
InformatikerInnen
Wolfgang Kössler
Für die Dichtefunktion des zufälligen Vektors V gilt
nach der Transformationsformel:
1. Grundbegriffe
fV (x, y) = fU (ψ1 (x, y), ψ2 (x, y)) · |J|.
2. Kombinatorik
3. Bedingte Wkt
Da die Zufallsgrößen U1 und U2 unabhängig sind,
4. Klass. Wkt.
gilt:
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
fV (x, y) = fU1 (ψ1 (x, y)) · fU2 (ψ2 (x, y)) · |J|.
Nun sind U1 , U2 ∼ R(0, 1). Daraus folgt aber:
1 2
1 2
1 − 1 (x 2 +y 2 )
1
1
fV (x, y) = |J| =
e 2
= √ e− 2 x · √ e− 2 y
2π
2π
2π
= fX (x) · fY (y).
488 / 895
Box-Müller Transformation (6)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
mit
1 2
1
fX (x) = √ e− 2 x
2π
1 2
1
fY (y) = √ e− 2 y
2π
d.h. die Zufallsgrößen X und Y sind unabhängig und
standardnormalverteilt,
7. Charakteristika
8. Exponential
X ∼ N (0, 1),
Y ∼ N (0, 1).
9. Normal
10.Transformation
489 / 895
Transformationssatz
Treffen einer Zielscheibe∗
Stochastik für
InformatikerInnen
Wolfgang Kössler
Es seien folgende Bedingungen erfüllt
V1: Die Randverteilungen von X und Y seien
1. Grundbegriffe
stetig
2. Kombinatorik
V2: Die Dichte h(x, y) von (X , Y ) hängt nur vom
p
Abstand x 2 + y 2 vom Nullpunkt ab
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
(Radialsymmetrie)
6. Diskrete ZV
V3: Die Fehler in x- und y-Richtung sind
7. Charakteristika
unabhängig.
8. Exponential
9. Normal
10.Transformation
Sei Z die zufällige Abweichung in beliebiger
Richtung. Dann ist Z ∼ N (0, σ 2 ).
490 / 895
Treffen einer Zielscheibe
Beweis des Satzes (1)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Seien p(x) und q(y) Randdichten von (X , Y ). Aus
V2 und V3 folgt
p(x)q(y) = s(r ),
r2 = x2 + y2
2. Kombinatorik
Substitutionsmethode:
3. Bedingte Wkt
x = 0: p(0)q(y) = s(y),
p(0) 6= 0
y = 0: q(0)p(x) = s(x),
q(0) 6= 0
4. Klass. Wkt.
(2)
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
x 6= y: p(x)q(y) = p(y)q(x) ∀x, y,
und damit p(x) = q(x) und p(0)p(y) = s(y)
Teilen obige Funktionalgleichung durch p(0)2 ,
s(r )
p(r )
p(x) p(y)
=
=
2
p(0) p(0)
p(0)
p(0)
491 / 895
Treffen einer Zielscheibe
Beweis des Satzes (2)
Stochastik für
InformatikerInnen
Wolfgang Kössler
Logarithmieren
1. Grundbegriffe
2. Kombinatorik
ln(
p(y)
p(r )
p(x)
) + ln(
) = ln(
)
p(0)
p(0)
p(0)
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
Mit f (x) := ln( p(x)
):
p(0)
f (x) + f (y) = f (r ),
r2 = x2 + y2
7. Charakteristika
8. Exponential
y = 0, x = −x1 : f (−x) = f (|x|)
wegen f (0) = 0.
9. Normal
10.Transformation
492 / 895
Treffen einer Zielscheibe
Beweis des Satzes (3)
Stochastik für
InformatikerInnen
x 2 = x12 + x22 :
Wolfgang Kössler
f (r ) = f (y) + f (x1 ) + f (x2 ),
r 2 = y 2 + x12 + x22
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
Wiederholtes Einsetzen:
f (r ) = f (x1 ) + f (x2 ) + . . . + f (xk ),
2
r =
k
X
xi2
i=1
2
k = n , x = x1 = . . . = xk :
6. Diskrete ZV
f (nx) = n2 f (x) ⇒x=1 f (n) = n2 f (1)
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
x=
m
,m
n
∈ Z:
m
m
n2 f ( ) = f (n ) = f (m) = m2 f (1)
n
n
493 / 895
Treffen einer Zielscheibe
Beweis des Satzes (4)
Stochastik für
InformatikerInnen
⇒ f ( mn ) = f (1)
Wolfgang Kössler
m 2
n
⇒
f (x) = cx 2 ,
c = f (1)
1. Grundbegriffe
2. Kombinatorik
für alle rationalen x. Wegen der Stetigkeit (V1) folgt
3. Bedingte Wkt
diese Relation für alle x ∈ R.
4. Klass. Wkt.
p(x) = p(0)ecx
2
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
p(x) > 0 da Wkt.dichte, c < 0, c := − 2σ1 2 .
Z ∞
Z ∞
√
2
1=
p(x) dx = p(0)
ecx dx = p(0)σ 2π
−∞
−∞
x2
1
p(x) = √ e− 2σ2
σ 2π
494 / 895
Treffen einer Zielscheibe
Beweis des Satzes (5)
Stochastik für
2. Kombinatorik
Gemeinsame Dichte von (X , Y ):
x 2 +y 2
1
p(x)p(y) = 2 e− 2σ2 .
σ 2π
Fehler in einer beliebigen Richtung θ, 0 ≤ θ ≤ 2π:
3. Bedingte Wkt
Z = X cos(θ) + Y sin(θ)
4. Klass. Wkt.
Variablentransformation
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
z = x cos(θ) + y sin(θ)
u = x sin(θ) − y cos(θ)
cos(θ) sin(θ) = |−1| =
Jacobi-Determinante J = sin(θ) − cos(θ)
495 / 895
Treffen einer Zielscheibe
Beweis des Satzes (6)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
Quadrieren von z und u liefert
z 2 = x 2 cos2 (θ) + y 2 sin2 (θ) + 2xy cos(θ) sin(θ)
u 2 = x 2 sin2 (θ) + y 2 cos2 (θ) − 2xy cos(θ) sin(θ)
Addition: x 2 + y 2 = z 2 + u 2 also gemeinsame Dichte
4. Klass. Wkt.
von (Z , U):
5. Zufallsvariablen
2
2
1 − z 2 +u2 2
1
1
− z2
− u2
2σ
2σ
2σ
√
√
e
=
e
e
σ 2 2π
σ 2π
σ 2π
d.h. Z und U sind unabhängig, h1 (z, u) = hZ (z)hU (u)
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
h1 (z, u) =
und
z2
1
hZ (z) = √ e− 2σ2
σ 2π
496 / 895
Transformationssatz für
Erwartungswerte
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Satz. Es sei X = (X1 , . . . , Xp )T ein zufälliger Vektor
und g : Rp −→ R eine Abbildung.
a) X diskret mit Wkt.funktion (Zähldichte) f . Falls
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
X
|g(x)|f (x) < ∞
so:
E(g(X)) =
x
X
g(x)f (x).
x
b) X stetig mit Dichtefunktion f .
Z
Eg(X ) = g(x1 , . . . , xp ) · f (x1 , . . . , xp ) dx1 . . . dxp ,
Rp
9. Normal
10.Transformation
falls das Integral
R
|g(x)|f (x) dx existiert.
497 / 895
Transformationssatz für
Erwartungswerte, Beispiel
Beispiel
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
Es sei X = (X1 , X2 )T ein stetiger zufälliger Vektor mit
3. Bedingte Wkt
Dichtefunktion f (x1 , x2 ). Wir definieren die Funktion
4. Klass. Wkt.
g : R2 −→ R durch g(X) := X1 + X2 . Dann gilt:
5. Zufallsvariablen
6. Diskrete ZV
E(X1 + X2 ) = EX1 + EX2
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
498 / 895
Transformationssatz für
Erwartungswerte, Beispiel (Fortsetz.)
Stochastik für
InformatikerInnen
Wolfgang Kössler
Eg(X) = E(X1 + X2 )
Z
=
g(x1 , x2 ) · f (x1 , x2 ) dx1 dx2
1. Grundbegriffe
R2
+∞ Z
+∞
Z
2. Kombinatorik
3. Bedingte Wkt
−∞
Z −∞
4. Klass. Wkt.
5. Zufallsvariablen
8. Exponential
9. Normal
Z
x1 f (x1 , x2 ) dx1 dx2 +
x2 f (x1 , x2 ) dx1 dx2
2
 +∞
R
Z

f (x1 , x2 ) dx2  dx1 +
x1
=
R2
+∞
Z
6. Diskrete ZV
7. Charakteristika
(x1 + x2 ) · f (x1 , x2 ) dx1 dx2
=
=
−∞
+∞
Z
−∞
−∞
−∞
 +∞

Z
x2 
f (x1 , x2 ) dx1  dx2
10.Transformation
499 / 895
Transformationssatz für
Erwartungswerte, Beispiel (Fortsetz.,
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
2)
Z+∞
Z+∞
Eg(X ) =
x1 · fX1 (x1 ) dx1 +
x2 · fX2 (x2 ) dx2
−∞
−∞
= EX1 + EX2
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
Allgemeiner erhalten wir also für zwei stetige
zufällige Variablen X1 und X2 :
7. Charakteristika
8. Exponential
E(c · X1 + d · X2 ) = c · EX1 + d · EX2 .
9. Normal
10.Transformation
500 / 895
12. Korrelation
Wolfgang Kössler
Def. 45 (Korrelationskoeffizient)
Es seien X1 und X2 zwei zufällige Variablen, für die
1. Grundbegriffe
gilt: 0 < σX1 , σX2 < ∞. Dann heißt der Quotient
Stochastik für
InformatikerInnen
2. Kombinatorik
3. Bedingte Wkt
%(X1 , X2 ) =
cov (X1 , X2 )
σX1 · σX2
4. Klass. Wkt.
5. Zufallsvariablen
Korrelationskoeffizient der Zufallsgrößen X1 und X2 .
6. Diskrete ZV
Ist cov (X1 , X2 ) = 0 dann heißen die beiden
7. Charakteristika
Zufallsgrößen unkorreliert.
8. Exponential
9. Normal
Bem.: X1 und X2 unabhängig ⇒ cov (X1 , X2 ) = 0.
10.Transformation
Die Umkehrung der Aussage gilt i.a. nicht.
501 / 895
Korrelation
Stochastik für
InformatikerInnen
2x2 Tafel
Wolfgang Kössler
Y
X
0(Sportler)
1(Nichtsportler)
Summe
0(w)
p11
p12
p1.
1(m)
p21
p22
p2.
Summe
p.1
p.2
1
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
X ∼ Bi(1, p.2 )
Y ∼ Bi(1, p2. )
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
E(X ) = p.2
var (X ) = p.2 (1 − p.2 ) = p.2 p.1
E(Y ) = p2.
var (Y ) = p2. (1 − p2. ) = p2. p1.
502 / 895
Korrelation
2x2 Tafel
Stochastik für
InformatikerInnen
Wolfgang Kössler
cov (X , Y ) = E(X · Y ) − E(X )E(Y ) = p22 − p.2 p2.
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
Korrelationskoeffizient:
p22 − p.2 p2.
p11 p22 − p12 p21
ρ= √
= √
p.2 p1. p2. p.1
p.2 p2. p1. p.1
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
p22 − p2. p.2 = p22 − (p21 + p22 )(p12 + p22 )
2
= p22 − (p21 p12 + p22 p12 + p21 p22 + p22
)
8. Exponential
9. Normal
10.Transformation
= p22 (1 − p12 − p21 − p22 ) − p21 p12
= p22 p11 − p21 p12
503 / 895
Korrelationskoeffizient
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
Satz
Es seien X1 und X2 zwei Zufallsgrößen mit
σX1 , σX2 > 0. Dann gilt für den
Korrelationskoeffizienten:
3. Bedingte Wkt
4. Klass. Wkt.
−1 ≤ %(X1 , X2 ) ≤ 1.
5. Zufallsvariablen
6. Diskrete ZV
Beweis: Wir definieren eine Funktion A wie folgt:
7. Charakteristika
8. Exponential
A(t, u) := E[t · (X1 − EX1 ) + u · (X2 − EX2 )]2 ≥ 0.
9. Normal
10.Transformation
Es gilt für alle t, u ∈ R:
504 / 895
Korrelationskoeffizient
Beweis des Satzes (Fortsetzung,1)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
A(t, u) = E(t 2 (X1 − EX1 )2 + u 2 (X2 − EX2 )2 )
+2tuE(X1 − EX1 )(X2 − EX2 )
= t 2 E(X1 − EX1 )2 + u 2 E(X2 − EX2 )2
+2tuE((X1 − EX1 )(X2 − EX2 ))
= t 2 Var X1 + 2 · t · u · cov (X1 , X2 ) + u 2 Var X2
≥ 0
9. Normal
10.Transformation
505 / 895
Korrelationskoeffizient
Beweis des Satzes (Fortsetzung,2)
Stochastik für
InformatikerInnen
Wir setzen t := σX2 , u := σX1 und dividieren durch
Wolfgang Kössler
σX1 · σX2 :
1. Grundbegriffe
σX2 2 σX2 1 + 2σX1 σX2 cov (X1 , X2 ) + σX2 1 σX2 2
A(σX2 , σX1 )
=
σX1 · σX2
σX1 · σX2
= σX1 · σX2 + 2 · cov (X1 , X2 ) + σX1 · σX2
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
= 2 · σX1 · σX2 + 2 · cov (X1 , X2 ) ≥ 0
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
Also:
σX1 · σX2 + cov (X1 , X2 ) ≥ 0.
8. Exponential
9. Normal
Andererseits gilt aber auch mit t := −σX2 und
10.Transformation
u := σX1 sowie derselben Herleitung wie oben:
506 / 895
Korrelationskoeffizient
Beweis des Satzes (Fortsetzung,3)
Stochastik für
InformatikerInnen
2. Kombinatorik
σX2 2 σX2 1 − 2σX1 σX2 · cov (X1 , X2 ) + σX2 1 σX2 2
A(−σX2 , σX1 )
=
σX1 σX2
σX1 · σX2
= 2 · σX1 · σX2 − 2 · cov (X1 , X2 ) ≥ 0
3. Bedingte Wkt
Also:
Wolfgang Kössler
1. Grundbegriffe
4. Klass. Wkt.
5. Zufallsvariablen
σX1 · σX2 − cov (X1 , X2 ) ≥ 0.
Beides zusammen ergibt
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
−σX1 · σX2 ≤ cov (X1 , X2 ) ≤ σX1 · σX2 .
Wir stellen etwas um und erhalten:
cov (X1 , X2 )
−1 ≤
= %(X1 , X2 ) ≤ 1.
σX1 · σX2
507 / 895
Korrelationskoeffizient
Stochastik für
InformatikerInnen
Wolfgang Kössler
Bem.: Die Ungleichung kann auch direkt aus der
1. Grundbegriffe
Cauchy-Schwarz’schen Ungleichung hergeleitet
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
werden.
Satz
Es seien X1 und X2 zwei Zufallsgrößen, für die
6. Diskrete ZV
σX1 , σX2 > 0 ist. Dann gilt |%(X1 , X2 )| = 1 genau dann,
7. Charakteristika
wenn es Zahlen a, b ∈ R (a 6= 0) gibt, so daß gilt:
8. Exponential
P(X1 = a · X2 + b) = 1.
9. Normal
10.Transformation
508 / 895
Korrelationskoeffizient
Beweis des Satzes (⇐=)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
Seien a, b ∈ R so, daß P(X1 = a · X2 + b) = 1. Für
Erwartungswert und Varianz von X1 gilt dann:
EX1 = E(a · X2 + b) = a · EX2 + b,
2
2
σX2 1 = σa·X
= σa·X
= a2 · σX2 2 .
2 +b
2
cov (X1 , X2 )
E((X1 − EX1 )(X2 − EX2 ))
=
σX1 · σX2
|a| · σX2 · σX2
E([(aX2 + b) − (aEX2 + b)](X2 − EX2 ))
=
|a| · σX2 2

 1 , falls a > 0
2
a · E(X2 − EX2 )
=
=
 −1 , falls a < 0
|a| · σX2 2
%(X1 , X2 ) =
509 / 895
Korrelationskoeffizient
Beweis des Satzes (=⇒)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Es gelte |%(X1 , X2 )| = 1. Nun gilt:
cov (X1 , X2 )
E((X1 − EX1 ) · (X2 − EX2 ))
=
σ ·σ
σX1 · σX2
X1 X2
X1 − EX1 X2 − EX2
·
= E(X1∗ · X2∗ ),
= E
σX1
σX2
%(X1 , X2 ) =
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
wobei
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
X1∗ :=
X1 − EX1
,
σX1
X2∗ :=
X2 − EX2
.
σX2
Für die Varianz der Zufallsgrößen Xi∗ (i = 1, 2) gilt:
10.Transformation
510 / 895
Korrelationskoeffizient
Beweis des Satzes (=⇒) (2)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
σX2 i∗ = E (Xi∗ − EXi∗ )2
= E (Xi∗ )2 − (EXi∗ )2
2 2
Xi − EXi
Xi − EXi
= E
− E
σXi
σXi
1
2
2
·
E(X
−
EX
)
−
(E(X
−
EX
))
=
i
i
i
i
σX2 i
1
=
· σX2 i −EXi
σX2 i
1
=
· σX2 i = 1
σX2 i
511 / 895
Korrelationskoeffizient
Beweis des Satzes (=⇒), (3)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
Offenbar gilt für die Erwartungswerte (i = 1, 2):
1
Xi − EXi
∗
=
· (EXi − E(EXi ))
EXi = E
σXi
σXi
1
=
· (EXi − EXi ) = 0
σXi
5. Zufallsvariablen
6. Diskrete ZV
Daraus folgt: %(X1 , X2 ) = E (X1∗ · X2∗ ).
7. Charakteristika
Wir unterscheiden zwei Fälle:
8. Exponential
%(X1 , X2 ) = 1 und %(X1 , X2 ) = −1
9. Normal
10.Transformation
512 / 895
Korrelationskoeffizient
Beweis des Satzes (=⇒), (4), %(X1 , X2 ) = 1
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
Wir untersuchen die Varianz der Zufallsgröße
X1∗ − X2∗ :
σX2 1∗ −X2∗ = E ((X1∗ − X2∗ ) − E (X1∗ − X2∗ ))2
= E ((X1∗ − X2∗ ) − EX1∗ + EX2∗ )2
3. Bedingte Wkt
= E (X1∗ − X2∗ )2
4. Klass. Wkt.
5. Zufallsvariablen
= E (X1∗ )2 − 2 · E (X1∗ · X2∗ ) + E (X2∗ )2
6. Diskrete ZV
= 1 − 2 · %(X1 , X2 ) + 1 = 0
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
wegen
E (Xi∗ )2 = E (Xi∗ − EXi∗ )2 = σX2 i∗ = 1.
513 / 895
Korrelationskoeffizient
Beweis des Satzes (=⇒), (5), %(X1 , X2 ) = 1
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Nun gilt aber σX2 ∗ −X ∗ = 0 genau dann, wenn es ein
2. Kombinatorik
c ∈ R gibt, so daß P (X1∗ − X2∗ = c) = 1 ist. Das
3. Bedingte Wkt
bedeutet aber, daß gilt: E (X1∗ − X2∗ ) = c. Wegen
4. Klass. Wkt.
EX1∗ = EX2∗ = 0 ist c = 0, woraus folgt
1
2
5. Zufallsvariablen
6. Diskrete ZV
P (X1∗ = X2∗ ) = 1.
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
514 / 895
Korrelationskoeffizient
Beweis des Satzes (=⇒), (6), %(X1 , X2 ) = 1
Stochastik für
InformatikerInnen
Dann gilt:
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
1 = P (X1∗ = X2∗ )
X1 − EX1
X2 − EX2
= P
=
σX1
σX2
σX1 · X2 − σX1 · EX2
+ EX1
= P X1 =
σX2
σX1
σX1
· X2 −
· EX2 + EX1
= P X1 =
σX2
σX2
Wir definieren a :=
σX1
σX2
> 0 und b :=
σX1
σX2
· EX2 + EX1 ,
und die Aussage ist für diesen Fall gezeigt.
515 / 895
Korrelationskoeffizient
Beweis des Satzes (=⇒), (7), %(X1 , X2 ) = 1
Stochastik für
InformatikerInnen
Wolfgang Kössler
Sei %(X1 , X2 ) = −1: Hier untersucht man die Varianz
1. Grundbegriffe
der Zufallsgröße X1∗ + X2∗ und zeigt, daß sie ebenfalls
2. Kombinatorik
gleich Null ist. Danach verläuft der Beweis völlig
3. Bedingte Wkt
analog zum Fall %(X1 , X2 ) = 1.
4. Klass. Wkt.
6. Diskrete ZV
Def. 46 (standardisierte Zufallsgröße)
Eine Zufallsgröße, deren Erwartungswert gleich Null
7. Charakteristika
und deren Varianz gleich Eins sind, heißt
8. Exponential
standardisierte Zufallsgröße.
5. Zufallsvariablen
9. Normal
10.Transformation
516 / 895
Korrelationskoeffizient
Stochastik für
InformatikerInnen
Wolfgang Kössler
Seien X , Y ∼ (0, 1), X und Y unabhängig.
1. Grundbegriffe
X∗ = X
2. Kombinatorik
Y ∗ = ρX +
3. Bedingte Wkt
p
1 − ρ2 Y
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
Offenbar
varX ∗ = varY ∗ = 1
cov (X ∗ , Y ∗ ) = ρ.
9. Normal
10.Transformation
517 / 895
Korrelationskoeffizient
Zweidimensionale Normalverteilung
Stochastik für
InformatikerInnen
Wolfgang Kössler
Seien X , Y ∼ N (0, 1), unabhängig, d.h. die
gemeinsame Dichte ist
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
f (x, y) = φ(x) · φ(y) =
1 − 1 (x 2 +y 2 )
e 2
2π
X∗ = X
Y ∗ = ρX +
p
1 − ρ2 Y
6. Diskrete ZV
Wir suchen die gemeinsame Verteilung von (X ∗ , Y ∗ ).
7. Charakteristika
Transformation:
8. Exponential
9. Normal
10.Transformation
g1 (x, y) = x
g2 (x, y) = ρx +
p
1 − ρ2 y
518 / 895
Korrelationskoeffizient
Zweidimensionale Normalverteilung
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
Inverse Transformation:
ψ1 (x ∗ , y ∗ ) = x ∗
y ∗ − ρx ∗
ψ2 (x ∗ , y ∗ ) = p
1 − ρ2
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
Jacobi-Determinate


detJ = det 

1
0
√−ρ
√1
1−ρ2
1−ρ2
1

= p
1 − ρ2
9. Normal
10.Transformation
519 / 895
Korrelationskoeffizient
Zweidimensionale Normalverteilung, Dichte
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
h(x ∗ , y ∗ ) = f (ψ1 (x ∗ , y ∗ ), ψ2 (x ∗ , y ∗ )) · |det(J)|
y ∗ − ρx ∗
1
= f (x ∗ , p
)· p
1 − ρ2
1 − ρ2
∗
∗
− 1 (x ∗2 +( y√−ρx 2 )2 )
1
1−ρ
p
=
e 2
2π 1 − ρ2
1
1
−
(x ∗2 −2ρx ∗ y ∗ +y ∗2 )
p
=
e 2(1−ρ2 )
2π 1 − ρ2
da der Exponent
y ∗ − ρx ∗ 2
1
2
∗2
∗
∗ 2
) =p
x ∗2 +( p
(1−ρ
)x
+(y
−ρx
)
2
1 − ρ2
1 − ρ2
520 / 895
Korrelationskoeffizient
Zweidimensionale Normalverteilung, Dichte
Stochastik für
ρ=0
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
ρ = 0.8
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
ρ = 0.5
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
521 / 895
Inhalt
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
13.1 Varianz-Ungleichung
13.2 Jensen-Ungleichung
13.3 Markov-Ungleichung
3. Bedingte Wkt
4. Klass. Wkt.
13.4 Tschebychev-Ungleichung
5. Zufallsvariablen
13.5 Hoeffding-Ungleichung
6. Diskrete ZV
13.6 Weitere Ungleichungen
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
522 / 895
13. Ungleichungen
13.1 Varianz-Ungleichung
Stochastik für
InformatikerInnen
Satz: Es sei X eine zufällige Variable. Dann gilt:
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
min E(X − c)2 = Var X .
c∈R
Beweis: Für alle reellen Zahlen c ∈ R gilt:
E(X − c)2 = E(X − EX + EX − c)2
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
= E(X − EX )2 + 2E((X − EX )(EX − c)) + (EX − c)2
= E(X − EX )2 + 2(EX − c) E(X − EX ) +(EX − c)2
|
{z
}
=0
2
= Var X + (EX − c) ≥ Var X
Setzen wir c := EX erhalten wir Gleichheit.
2
523 / 895
Inhalt
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
13.1 Varianz-Ungleichung
13.2 Jensen-Ungleichung
13.3 Markov-Ungleichung
3. Bedingte Wkt
4. Klass. Wkt.
13.4 Tschebychev-Ungleichung
5. Zufallsvariablen
13.5 Hoeffding-Ungleichung
6. Diskrete ZV
13.6 Weitere Ungleichungen
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
524 / 895
13.2 Jensen-Ungleichung
Stochastik für
InformatikerInnen
Satz (Ungleichung von J ENSEN)
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
Sei X eine zufällige Variable mit EX < ∞ und g eine
differenzierbare und konvexe Funktion. Dann gilt:
3. Bedingte Wkt
4. Klass. Wkt.
Eg(X ) ≥ g(EX ).
5. Zufallsvariablen
Beweis: Sei T (x) die Tangente an die Kurve der
6. Diskrete ZV
Funktion g im Punkt x0 ,
7. Charakteristika
8. Exponential
9. Normal
g(x) ≥ T (x) = g(x0 ) +
g 0 (x )
| {z0}
·(x − x0 ).
Anstieg der Kurve in x0
10.Transformation
525 / 895
Jensen-Ungleichung
Stochastik für
InformatikerInnen
Wir setzen x := X und x0 := EX und erhalten:
Wolfgang Kössler
1. Grundbegriffe
g(X ) ≥ g(EX ) + g 0 (EX ) · (X − EX ).
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
Daraus folgt:
Eg(X ) ≥ E(g(EX ) + g 0 (EX ) · (X − EX ))
7. Charakteristika
= g(EX ) + g 0 (EX ) · E(X − EX )
{z
}
|
8. Exponential
= g(EX )
6. Diskrete ZV
=0
9. Normal
10.Transformation
526 / 895
Jensen-Ungleichung
Stochastik für
InformatikerInnen
Folgerung
Wolfgang Kössler
Es sei g differenzierbar und konkav. Weiterhin sei X
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
eine zufällige Variable. Dann gilt:
Eg(X ) ≤ g(EX ).
4. Klass. Wkt.
5. Zufallsvariablen
Beweis: Da die Funktion g nach Voraussetzung
6. Diskrete ZV
konkav ist, ist die Funktion (−g) konvex. Dann gilt
7. Charakteristika
nach der Jensen-Ungleichung:
8. Exponential
9. Normal
10.Transformation
E((−g)(X )) ≥ (−g)(EX ).
Daraus folgt die Behauptung.
2
527 / 895
Jensen-Ungleichung
Beispiele
Stochastik für
InformatikerInnen
1
Wolfgang Kössler
Es sei g(x) = x 2 . Dann gilt EX 2 ≥ (EX )2 .
Daraus folgt (die schon bekannte Aussage):
1. Grundbegriffe
Var X = E(X − EX )2 = EX 2 − (EX )2 ≥ 0.
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
2
Es sei g(x) = |x|. Dann gilt
5. Zufallsvariablen
E|X | ≥ |EX |.
6. Diskrete ZV
7. Charakteristika
3
8. Exponential
9. Normal
10.Transformation
Es sei g(x) = ln x. Diese Funktion ist konkav.
Also gilt
E(ln X ) ≤ ln(EX ).
528 / 895
Inhalt
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
13.1 Varianz-Ungleichung
13.2 Jensen-Ungleichung
13.3 Markov-Ungleichung
3. Bedingte Wkt
4. Klass. Wkt.
13.4 Tschebychev-Ungleichung
5. Zufallsvariablen
13.5 Hoeffding-Ungleichung
6. Diskrete ZV
13.6 Weitere Ungleichungen
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
529 / 895
13.3 Markov-Ungleichung
Stochastik für
Satz (Ungleichung von M ARKOV)
InformatikerInnen
Wolfgang Kössler
Sei c > 0. X sei eine Zufallsgröße. Dann gilt:
1. Grundbegriffe
P(|X | > c) ≤
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
E|X |
.
c
Beweis: Wir definieren eine Zufallsgröße Y :

 c , falls |X (ω)| > c
Y (ω) :=
, ∀ω ∈ Ω.
 0 , falls |X (ω)| ≤ c
7. Charakteristika

8. Exponential
9. Normal
10.Transformation
Y :
0
c



P(|X | ≤ c) P(|X | > c)
530 / 895
Markov-Ungleichung
Stochastik für
InformatikerInnen
Offenbar gilt für alle ω ∈ Ω:
Wolfgang Kössler
0 ≤ Y (ω) ≤ |X (ω)|,
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
bzw.:
0 ≤ Y ≤ |X |.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
Daraus folgt: P(|X | − Y ≥ 0) = 1.
E(|X | − Y ) ≥ 0
8. Exponential
9. Normal
E|X | ≥ EY .
10.Transformation
531 / 895
Markov-Ungleichung
Stochastik für
InformatikerInnen
Wolfgang Kössler
Da die Zufallsgröße Y diskret ist, folgt aus der
1. Grundbegriffe
Definition des Erwartungswertes:
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
EY = 0 · P(|X | ≤ c) + c · P(|X | > c)
= c · P(|X | > c) ≤ E|X |
5. Zufallsvariablen
6. Diskrete ZV
Wir stellen um und erhalten:
7. Charakteristika
8. Exponential
P(|X | > c) ≤
E|X |
.
c
9. Normal
10.Transformation
532 / 895
Inhalt
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
13.1 Varianz-Ungleichung
13.2 Jensen-Ungleichung
13.3 Markov-Ungleichung
3. Bedingte Wkt
4. Klass. Wkt.
13.4 Tschebychev-Ungleichung
5. Zufallsvariablen
13.5 Hoeffding-Ungleichung
6. Diskrete ZV
13.6 Weitere Ungleichungen
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
533 / 895
13.4 Tschebychev-Ungleichung
Stochastik für
InformatikerInnen
Satz (Ungleichung von T SCHEBYCHEV)
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
Es sei ε > 0 und sei Y eine Zufallsgröße. Dann gilt:
P(|Y − EY | > ε) ≤
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
Var Y
.
ε2
Beweis: Wir verwenden die Markov-Ungleichung:
E|X |
P(|X | > c) ≤
.
c
und setzen
8. Exponential
9. Normal
X := (Y − EY )2i ≥ 0,
c := ε2i
(i ∈ N).
10.Transformation
534 / 895
Tschebychev-Ungleichung
Beweis, Fortsetzung
Stochastik für
InformatikerInnen
Wolfgang Kössler
Da ε > 0 gilt, ist die Voraussetzung der M ARKOV-
1. Grundbegriffe
Ungleichung erfüllt. Wir erhalten:
2. Kombinatorik
3. Bedingte Wkt
2i
P(|Y −EY | > ε) = P (Y − EY ) > ε
4. Klass. Wkt.
5. Zufallsvariablen
2i
E(Y − EY )2i
≤
.
ε2i
Für i := 1 ergibt sich:
6. Diskrete ZV
7. Charakteristika
8. Exponential
P(|Y − EY | > ε) ≤
E(Y − EY )2
Var Y
=
.
2
ε
ε2
9. Normal
10.Transformation
535 / 895
Tschebyschev-Ungleichung
2. Formulierung
Stochastik für
InformatikerInnen
Wolfgang Kössler
Bem.: Aus der T SCHEBYCHEV-Ungleichung folgt:
1. Grundbegriffe
2. Kombinatorik
P(|Y − EY | ≤ ε) ≥ 1 −
Var Y
.
ε2
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
Es sei X ∼ (µ, σ 2 ),
also EX = µ,
Var X = σ 2 .
Wir setzen ε := k · σ (k ∈ N) und erhalten dann mit
6. Diskrete ZV
7. Charakteristika
der Ungleichung von T SCHEBYCHEV:
8. Exponential
9. Normal
P(|X − µ| ≤ k · σ) ≥ 1 −
σ2
1
= 1 − 2.
2
2
k ·σ
k
10.Transformation
536 / 895
Tschebyschev-Ungleichung
Normalverteilung, k σ-Intervalle, Vergleich mit exakten Wktn.
Stochastik für
InformatikerInnen
Wolfgang Kössler
k
exakt
Tschebychev-Ungleichung
Φ(kσ) − Φ(−kσ)
1−
1
0.68629
0
2
0.9545
0.75
3
0.9973
0.89
4
0.99997
0.93
5
≈1
0.96
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
1
k2
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
537 / 895
Tschebyschev-Ungleichung
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
Bem.: Die Tschebyschev-Ungleichung gilt für
3. Bedingte Wkt
beliebig verteilte Zufallsvariablen, die
4. Klass. Wkt.
Erwartungswert und Varianz besitzen, insbesondere
5. Zufallsvariablen
liegt die Zufallsvariable X mit Wahrscheinlichkeit
6. Diskrete ZV
≥ 0.89 im 3σ-Intervall.
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
538 / 895
Tschebyschev-Ungleichung
Beispiel
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Median der Zufallsvariablen X
Die Zahl med = med(X ) heißt Median, falls
2. Kombinatorik
3. Bedingte Wkt
P(X ≤ med) ≥
1
2
und P(X ≥ med) ≥
1
2
4. Klass. Wkt.
5. Zufallsvariablen
Sei P(X > 0) = 1. Aus der Markov-Ungleichung
6. Diskrete ZV
folgt:
7. Charakteristika
8. Exponential
1
E|X |
≤ P(X ≥ med) ≤
,
2
med
d.h. med ≤ 2 · E|X |
9. Normal
10.Transformation
539 / 895
Inhalt
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
13.1 Varianz-Ungleichung
13.2 Jensen-Ungleichung
13.3 Markov-Ungleichung
3. Bedingte Wkt
4. Klass. Wkt.
13.4 Tschebychev-Ungleichung
5. Zufallsvariablen
13.5 Hoeffding-Ungleichung
6. Diskrete ZV
13.6 Weitere Ungleichungen
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
540 / 895
13.5 Hoeffding-Ungleichung
Stochastik für
InformatikerInnen
Satz (Hoeffding-Ungleichung)
Wolfgang Kössler
Seien Y1 , . . . , Yn unabhängig und so dass EYi = 0
1. Grundbegriffe
und ai ≤ Yi ≤ bi . Sei > 0. Dann gilt ∀t > 0:
2. Kombinatorik
3. Bedingte Wkt
n
n
X
Y
2
2
−t
P(
Yi ≥ ) ≤ e
et (bi −ai ) /8 ,
i=1
4. Klass. Wkt.
i=1
5. Zufallsvariablen
Satz (Hoeffding-Ungleichung für Bernoulli ZV)
6. Diskrete ZV
Seien X1 , . . . , Xn ∼ Bi(1, p). Dann gilt ∀ > 0:
7. Charakteristika
2
P(|X n − p| > ) ≤ 2e−2n ,
8. Exponential
9. Normal
10.Transformation
wobei X n =
1
n
Pn
i=1
Xi .
541 / 895
Hoeffding-Ungleichung
Beispiel
Stochastik für
InformatikerInnen
Wolfgang Kössler
Seien X1 , . . . , Xn ∼ Bi(1, p),
1. Grundbegriffe
d.h. Bernoulli: Xi = 1 mit Wkt. p, Xi = 0 sonst.
2. Kombinatorik
n = 100, = 0.2.
3. Bedingte Wkt
Tschebyschev:
4. Klass. Wkt.
5. Zufallsvariablen
P(|X n −p|) > ) ≤
var X n
p(1 − p)
1
=
≤
= 0.0625.
2
2
n
4n2
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
Hoeffding:
2
P(|X n − p|) > ) ≤ 2e−2·100·0.2 = 0.00067.
10.Transformation
542 / 895
Hoeffding-Ungleichung
Es geht sogar noch besser:
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
ZGWS (s. Kapitel Grenzwertsätze )
P
| ni=1 Xi − np|
n
>p
P(|X n − p|) > ) = P p
np(1 − p)
np(1 − p)
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
≈
n
1−Φ p
= 2Φ − p
np(1 − p)
n
n
+ Φ −p
np(1 − p)
np(1 − p)
√
−n ≤ 2Φ q
= 2Φ(−2 n)
n 14
= 2Φ(−4) ≈ 10−4 .
10.Transformation
543 / 895
Hoeffding-Ungleichung
(1 − α) Konfidenzintervall
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
Sei α > 0 und n =
q
1
2n
log
2
α
.
Hoeffding:
2
P(|X n − p|) > n ) ≤ 2e−2nn = α.
3. Bedingte Wkt
4. Klass. Wkt.
Sei C = (X n − n , X n + n ).
5. Zufallsvariablen
6. Diskrete ZV
P(p ∈
/ C) = P(|X n − p| > n ) ≤ α
7. Charakteristika
P(p ∈ C) ≥ 1 − α
8. Exponential
9. Normal
10.Transformation
D.h. das zufällige Intervall C überdeckt den wahren
Parameter p mit Wkt. ≥ 1 − α.
544 / 895
Schätzung von
Binomialwahrscheinlichkeiten
Stochastik für
InformatikerInnen
Wolfgang Kössler
Vorgabe: , α.
Gesucht: notwendiger Stichprobenumfang um
1. Grundbegriffe
P(|p̂ − p| > ) < α
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
zu sichern.
Hoeffding: Es genügt:
6. Diskrete ZV
2
2 · e−2n < α
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
also
n>
− ln α/2
ln(2/α)
=
.
2
2
22
545 / 895
Schätzung von
Binomialwahrscheinlichkeiten (2)
Stochastik für
InformatikerInnen
ZGWS:
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
=
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
n
−p
<
np(1 − p)
√
n >
8. Exponential
9. Normal
10.Transformation
n >
|p̂ − p|
n
>p
np(1 − p)
np(1 − p)
n
2Φ − p
<α
np(1 − p)
α
Φ−1 ( )
2
−Φ−1 ( α2 ) p
p(1 − p)
2
Φ−1 (1 − α2 )
42
P(|p̂ − p| > ) = P p
546 / 895
Schätzung von
Binomialwahrscheinlichkeiten (3)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Vergleich Hoeffding - ZGWS
Sei = 0.01.
Notwendige Stichprobenumfänge
2. Kombinatorik
ZGWS
Hoeffding
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
− α2 )
1
22
0.1
6765
15000
0.05
9640
18450
0.01
16641
26490
0.001
27225
38000
α
1
Φ−1 (1
42
ln α2
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
547 / 895
Hoeffding-Ungleichung
Beweis
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
Sei t > 0. Aus der Markov-Ungleichung folgt:
n
n
X
X
Pn
P(
Yi ≥ ) = P(t
Yi ≥ t) = P(et i=1 Yi ≥ et )
i=1
3. Bedingte Wkt
i=1
≤ e
−t
E e
t
Pn
i=1
Yi
=e
−t
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
n
Y
E(etYi ).
i=1
Da ai ≤ Yi ≤ bi lässt sich Yi als konvexe
Kombination von ai und bi schreiben,
7. Charakteristika
Yi = αbi + (1 − α)ai ,
8. Exponential
9. Normal
10.Transformation
wobei α =
Yi −ai
.
bi −ai
548 / 895
Hoeffding-Ungleichung
Beweis (2)
Stochastik für
InformatikerInnen
NR.: Für konvexe Funktionen f (x), x ∈ (a, b) gilt:
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
f (x) ≤ f (a) +
f (b) − f (a)
(x − a) = αf (b) + (1 − α)f (a)
b−a
(Die Kurve f liegt unterhalb der Sekante, α =
x−a
.).
b−a
Da die Exponentialfunktion konvex ist:
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
etYi ≤ αetbi + (1 − α)etai
Yi − ai tbi bi − Yi tai
=
e +
e
bi − ai
bi − ai
−ai tbi
bi
E(etYi ) ≤
e +
etai = eg(u)
bi − ai
bi − ai
10.Transformation
549 / 895
Hoeffding-Ungleichung
Beweis (3)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
wegen EYi = 0. Dabei ist
u = t(bi − ai )
g(u) = −γu + log(1 − γ + γeu )
−ai
γ =
, γ ∈ (0, 1) da ai < 0 < bi
bi − ai
γeu
g 0 (u) = −γ +
1 − γ + γeu
γeu (1 − γ)
xy
=:
g 00 (u) =
u
2
(1 − γ + γe )
(x + y)2
1
g(0) = g 0 (0) = 0, g 00 (u) ≤
∀u > 0.
4
wobei x = γeu , y = 1 − γ.
550 / 895
Hoeffding-Ungleichung
Beweis (4)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Die Aussage 0 ≤ g 00 (u) =
xy
(x+y )2
0 ≤ (x − y)2
≤
1
4
folgt aus
gdw.
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
4xy ≤ x 2 + 2xy + y 2 = (x + y)2
Satz von Taylor: es ex. ein ξ ∈ (0, u):
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
u 2 00
g (ξ)
2
u 2 00
u2
t 2 (bi − ai )2
=
g (ξ) ≤
=
2
8
8
g(u) = g(0) + ug 0 (0) +
10.Transformation
551 / 895
Hoeffding-Ungleichung
Beweis (5)
Stochastik für
InformatikerInnen
Wolfgang Kössler
Daraus folgt:
1. Grundbegriffe
E(etYi ) ≤ eg(u) ≤ et
2. Kombinatorik
2 (b −a )2 /8
i
i
.
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
Damit:
n
n
n
Y
X
Y
2
2
−t
tYi
−t
P(
Yi ≥ ) = e
E(e ) ≤ e
et (bi −ai ) /8
i=1
i=1
i=1
8. Exponential
9. Normal
10.Transformation
552 / 895
Hoeffding-Ungleichung für Bernoulli
Beweis:
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Sei Yi = n1 (Xi − p). Dann gilt EYi = 0 und a ≤ Yi ≤ b,
wobei a = −p/n und b = (1 − p)/n.
Also (b − a)2 = 1/n2 . Aus der
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
Hoeffding-Ungleichung folgt:
n
X
2
P(X n − p > ) = P(
Yi > ) ≤ e−t et /(8n) ,
i=1
für jedes t > 0. Setze t = 4n:
8. Exponential
2
9. Normal
P(X n − p > ) ≤ e−2n .
10.Transformation
553 / 895
Hoeffding-Ungleichung für Bernoulli
Beweis (2)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
Analog:
2
P(X n − p < −) ≤ e−2n .
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
Beides zusammen:
2
P(|X n − p| > ) ≤ 2e−2n .
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
554 / 895
Inhalt
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
13.1 Varianz-Ungleichung
13.2 Jensen-Ungleichung
13.3 Markov-Ungleichung
3. Bedingte Wkt
4. Klass. Wkt.
13.4 Tschebychev-Ungleichung
5. Zufallsvariablen
13.5 Hoeffding-Ungleichung
6. Diskrete ZV
13.6 Weitere Ungleichungen
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
555 / 895
13.6 Weitere Ungleichungen
Stochastik für
InformatikerInnen
Wolfgang Kössler
Satz (Chernov-Ungleichung)
1. Grundbegriffe
Seien X1 , . . . , Xn ∼ Bi(1, p). Dann gilt ∀δ ∈ (0, 1):
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
δ2
Xn − p
> δ) ≤ e−pn 3
p
δ2
Xn − p
> δ) ≤ e−pn 2
P(−
p
P
wobei X n = n1 ni=1 Xi .
P(
8. Exponential
9. Normal
Beweis: s. z.B. in Wikipedia
2
10.Transformation
556 / 895
Weitere Ungleichungen (2)
1. Grundbegriffe
Satz (Mill-Ungleichung). Sei Z ∼ N (0, 1). Dann
r
2
2φ(t)
2 e−t /2
=
.
P(|Z | > t) ≤
π t
t
2. Kombinatorik
Beweis: Es gilt
Stochastik für
InformatikerInnen
Wolfgang Kössler
∞
x2
1
√ e− 2 dx
P(|Z | > t) = 2P(Z > t) = 2
2π
t
r Z
∞
x2
1
2
(− )(−xe− 2 ) dx
=
π t
x
r
Z ∞
2 1 − x2 ∞
1 − x2
− )e 2 |t −
e 2 dx
=
2
π x
x
|t
{z
}
≥0
r
2
2 e−t /2
≤
π t
Z
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
557 / 895
Inhalt
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
14.1 Das Gesetz der Großen Zahlen
14.2 Der Satz von G LIVENKO –C ANTELLI
3. Bedingte Wkt
14.3 Konvergenz von Folgen zufälliger
4. Klass. Wkt.
Variablen
5. Zufallsvariablen
14.4 Der zentrale Grenzwertsatz
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
558 / 895
14.1 Das Gesetz der Großen Zahlen
Motivation
Stochastik für
InformatikerInnen
Der Erwartungswert einer zufälligen Variablen X ist
Wolfgang Kössler
in der Praxis meist nicht bekannt. Um ihn zu
1. Grundbegriffe
schätzen, sammelt man Beobachtungen
2. Kombinatorik
X1 , X2 , . . . , Xn (n ∈ N) und bildet dann das
3. Bedingte Wkt
arithmetische Mittel dieser Beobachtungen:
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
X =
1
n
n
X
Xi =: X n
i=1
7. Charakteristika
8. Exponential
Dabei muß man jedoch beachten, daß die
9. Normal
Beobachtungen X1 , . . . , Xn unabhängig oder
10.Transformation
wenigstens unkorreliert sind.
559 / 895
Das Gesetz der Großen Zahlen
Stochastik für
InformatikerInnen
Satz (Schwaches Gesetz der Großen Zahlen)
Wolfgang Kössler
1. Grundbegriffe
Es seien X1 , . . . , Xn unkorrelierte zufällige Variablen
2. Kombinatorik
mit µ := EXi und σ 2 := Var Xi < ∞ (für alle
3. Bedingte Wkt
i = 1, . . . , n). Dann gilt für alle ε > 0:
4. Klass. Wkt.
5. Zufallsvariablen
lim P(|X n − µ| > ε) = 0.
n→∞
6. Diskrete ZV
7. Charakteristika
Bem.: Das ist die Tschebyschev-Version des
8. Exponential
9. Normal
10.Transformation
schwachen Gesetzes der großen Zahlen, die wir im
folgenden beweisen werden.
560 / 895
Das Gesetz der Großen Zahlen
Beweis
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
Beweis: Da die Zufallsgrößen X1 , . . . , Xn unkorreliert
sind, gilt
σ2
n
Mittels der T SCHEBYCHEV–Ungleichung erhalten wir:
EX = µ,
Var X =
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
P(|X n − µ| > ε) = P(|X − EX | > ε)
Var X
ε2
σ2
=
−−−→ 0
n · ε2 n→∞
≤
2
561 / 895
Das Gesetz der Großen Zahlen
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
Bem.: Aus dem Beweis erkennen wir, daß die
Voraussetzungen etwas abgeschwächt werden
können, anstelle Var Xi = σ 2 genügt die Forderung
n
1 X
lim 2
Var Xi = 0.
n→∞ n
i=1
5. Zufallsvariablen
6. Diskrete ZV
Bem.: Die Voraussetzung der endlichen Varianz
7. Charakteristika
kann auch fallen gelassen werden. Dann können wir
8. Exponential
aber zum Beweis nicht mehr die
9. Normal
Tschebyschev-Ungleichung anwenden. Der Beweis
10.Transformation
geht dann über charakteristische Funktionen.
562 / 895
Das Gesetz der Großen Zahlen
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Stochastischer Grenzwert
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
Wenn
lim P(|Yn − Y0 | > ε) = 0 ∀ε > 0
n→∞
dann heißt Y0 stochastischer Grenzwert der Folge
6. Diskrete ZV
{Yn } und man schreibt p − lim Yn = Y0 oder
7. Charakteristika
Yn →p Y0 .
8. Exponential
9. Normal
10.Transformation
563 / 895
Das Gesetz der Großen Zahlen
Beispiel 1
Stochastik für
InformatikerInnen
Wolfgang Kössler
Es seien Xi ∼ Bi(1, p)

1. Grundbegriffe
Xi :
2. Kombinatorik

1
1−p p
3. Bedingte Wkt
4. Klass. Wkt.
0
µ := EX = EXi = p


σ 2 = p · (1 − p) < ∞
5. Zufallsvariablen
6. Diskrete ZV
Nach dem Schwachen Gesetz der Großen Zahlen
7. Charakteristika
folgt:
8. Exponential
9. Normal
P
!
n
X
1
Xi − p > ε −
−−→ 0.
n
n→∞
i=1
10.Transformation
564 / 895
Das Gesetz der Großen Zahlen
Beispiel 2
Stochastik für
InformatikerInnen
Es sei A ein Ereignis, p = P(A) sei unbekannt.
Wolfgang Kössler
Zur Schätzung von p führen wir eine Reihe von
1. Grundbegriffe
unabhängigen Experimenten durch, bei denen A und
2. Kombinatorik
A die einzig möglichen Ausgänge seien.
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
n:
# der Experimente, die durchgeführt werden.
n(A):
6. Diskrete ZV
# Auftretens des Ereignisses A.
n(A)
n
die relative Häufigkeit des Ereignisses A.
p̂n =
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
Frage:
p̂n −
−−→ p?
n→∞
565 / 895
Das Gesetz der Großen Zahlen
Beispiel 2, Fortsetzung
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
Dazu definieren wir Zufallsgrößen Xi (i = 1, . . . , n),

 1 , A im i–ten Experiment eintritt
Xi :=
 0 , A im i-ten Experiment nicht eintritt
Dann gilt für alle i = 1, . . . , n:
4. Klass. Wkt.
Xi ∼ Bi(1, p)
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
und P(Xi = 1) = p sowie P(Xi = 0) = 1 − p.
σ 2 = Var Xi = p · (1 − p)
µ = EXi = p
8. Exponential
9. Normal
10.Transformation
X :=
1
n
·
n
X
Xi =
1
n
· n(A) = p̂n
i=1
566 / 895
Das Gesetz der Großen Zahlen
Beispiel 2, Fortsetzung
Stochastik für
InformatikerInnen
Wolfgang Kössler
Wenden das Schwache Gesetz der Großen Zahlen
an und erhalten:
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
lim P(|p̂n − p| > ε) =
n→∞
= 0,
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
lim P(|X n − µ| > ε)
n→∞
∀ε > 0
Folglich gilt: p̂n −
−−→ p.
n→∞
7. Charakteristika
Bem.: Schätzungen p̂n , die gegen den zu
8. Exponential
schätzenden Parameter konvergieren heißen
9. Normal
(schwach) konsistent.
10.Transformation
567 / 895
Starkes Gesetz der Großen Zahlen
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Satz (Gesetz der Großen Zahlen)
Seien die Zufallsvariablen X1 , . . . , Xn identisch verteilt
und unabhängig, E|Xi | < ∞, EXi = µ. Dann gilt
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
P(ω : lim X n = µ) = 1.
n→∞
5. Zufallsvariablen
Bem.: Schwaches Gesetz der Großen Zahlen:
6. Diskrete ZV
Seien die X1 , . . . , Xn identisch verteilt, EXi = µ und
7. Charakteristika
unkorreliert (cov (Xi , Xj ) = σ 2 δij ). Dann gilt
8. Exponential
9. Normal
⇒ p − lim X n = µ.
10.Transformation
568 / 895
Gesetz der Großen Zahlen
Anwendung 1
Stochastik für
InformatikerInnen
Das Gesetz der großen Zahlen eignet sich also z.B.
Wolfgang Kössler
zum Schätzen von Erwartungswerten.
1. Grundbegriffe
Sei X ∼ F mit Dichte f (x), den Beobachtungen
2. Kombinatorik
3. Bedingte Wkt
x1 , . . . , xn und g(·) eine beliebige Funktion.
Der Erwartungswert
4. Klass. Wkt.
5. Zufallsvariablen
Z
E(g(X )) =
g(x)f (x) dx
6. Diskrete ZV
7. Charakteristika
wird (falls er existiert) geschätzt durch
8. Exponential
9. Normal
10.Transformation
n
1X
Î =
g(xi )
n
i=1
569 / 895
Gesetz der Großen Zahlen
Anwendung 2
Stochastik für
InformatikerInnen
Das Gesetz der großen Zahlen eignet sich auch zur
Wolfgang Kössler
Approximation von Integralen.
1. Grundbegriffe
Ist f > 0 kann das Integral
Z
I = g(x) dx
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
(falls es existiert) geschätzt werden durch
n
1 X g(xi )
Î =
,
n
f (xi )
i=1
8. Exponential
9. Normal
wobei die Beobachtungen xi aus einer Population
10.Transformation
mit Dichte f stammen.
570 / 895
Inhalt
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
14.1 Das Gesetz der Großen Zahlen
14.2 Der Satz von G LIVENKO –C ANTELLI
3. Bedingte Wkt
14.3 Konvergenz von Folgen zufälliger
4. Klass. Wkt.
Variablen
5. Zufallsvariablen
14.4 Der zentrale Grenzwertsatz
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
571 / 895
14.2 Der Satz von
G LIVENKO –C ANTELLI
Stochastik für
InformatikerInnen
Def. (Empirische Verteilungsfunktion)
Wolfgang Kössler
Seien X1 , . . . , Xn unkorreliert, Xi ∼ F , und
1. Grundbegriffe
X(1) , . . . , X(n) , X(1) ≤ X(2) ≤ . . . ≤ X(n) die geordnete
2. Kombinatorik
Stichprobe. Die Funktion
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
#{Xi : Xi < x, i = 1, . . . , n}
n


0
falls x < X(1)



i
=
falls X(i) ≤ x < X(i+1)
n



1
falls X < x
Fn (x) =
(n)
heißt empirische Verteilungsfunktion.
572 / 895
Der Satz von G LIVENKO –C ANTELLI
Veranschaulichung der empirischen Verteilungsfunktion
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
573 / 895
Der Satz von G LIVENKO –C ANTELLI
Stochastik für
InformatikerInnen
Wolfgang Kössler
Satz von G LIVENKO –C ANTELLI (1)
Seien X1 , . . . , Xn unkorreliert. Es gilt:
1. Grundbegriffe
2. Kombinatorik
lim P(|Fn (x) − F (x)| > ε) = 0 ∀x ∈ R.
n→∞
3. Bedingte Wkt
4. Klass. Wkt.
Beweis: Wir definieren Zufallsgrößen Yix
5. Zufallsvariablen
(i = 1, . . . , n, x ∈ R) durch:

 1 , falls Xi < x
Yix =
 0 , sonst
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
574 / 895
Der Satz von G LIVENKO –C ANTELLI
Beweis (Fortsetzung)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
Dann gilt offensichtlich für alle i = 1, . . . , n und x ∈ R:


0
1

Yix : 
1 − F (x) F (x)
3. Bedingte Wkt
4. Klass. Wkt.
D.h. Yix ∼ Bi(1, F (x)). Sei, für alle x ∈ R,
5. Zufallsvariablen
6. Diskrete ZV
Y x :=
1
n
n
X
Yix .
i=1
7. Charakteristika
8. Exponential
9. Normal
Vergleichen wir die Zufallsgrößen Fn (x) und Y x :
Y x = Fn (x).
10.Transformation
575 / 895
Der Satz von G LIVENKO –C ANTELLI
Beweis (Fortsetzung)
Stochastik für
InformatikerInnen
Wolfgang Kössler
Aus dem letzten Beispiel folgt, µ := EYix = F (x).
1. Grundbegriffe
Deshalb folgt aus dem schwachen Gesetz der
2. Kombinatorik
großen Zahlen:
3. Bedingte Wkt
4. Klass. Wkt.
lim P(|Y x − µ| > ε) = 0,
n→∞
∀ε > 0.
5. Zufallsvariablen
6. Diskrete ZV
D.h. für alle ε > 0 gilt:
7. Charakteristika
8. Exponential
lim P(|Fn (x) − F (x)| > ε) = 0
n→∞
9. Normal
10.Transformation
576 / 895
Der Satz von G LIVENKO –C ANTELLI
Verschärfung:
Stochastik für
InformatikerInnen
Wolfgang Kössler
Satz von G LIVENKO –C ANTELLI (2)
1. Grundbegriffe
2. Kombinatorik
Es seien X1 , . . . , Xn unabhängige zufällige Variablen.
3. Bedingte Wkt
Dann gilt:
4. Klass. Wkt.
5. Zufallsvariablen
P
lim sup |Fn (x) − F (x)| = 0 = 1.
n→∞ x∈R
6. Diskrete ZV
7. Charakteristika
Dieser Satz wird auch oft als der
8. Exponential
Hauptsatz der Statistik bezeichnet.
9. Normal
10.Transformation
577 / 895
Inhalt
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
14.1 Das Gesetz der Großen Zahlen
14.2 Der Satz von G LIVENKO –C ANTELLI
3. Bedingte Wkt
14.3 Konvergenz von Folgen zufälliger
4. Klass. Wkt.
Variablen
5. Zufallsvariablen
14.4 Der zentrale Grenzwertsatz
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
578 / 895
14.3 Konvergenz von Folgen zufälliger
Variablen
Stochastik für
InformatikerInnen
Wolfgang Kössler
Def. 47 (Stochastische Konvergenz)
1. Grundbegriffe
Eine Folge {Xn }n∈N zufälliger Variablen
2. Kombinatorik
konvergiert stochastisch (in Wkt.) gegen eine
3. Bedingte Wkt
zufällige Variable X , falls für alle ε > 0 gilt:
4. Klass. Wkt.
5. Zufallsvariablen
lim P(|Xn − X | > ε) = 0.
n→∞
6. Diskrete ZV
7. Charakteristika
8. Exponential
Wir bezeichnen dann: p–lim Xn = X .
X heißt stochastischer Grenzwert der Folge {Xn }.
9. Normal
10.Transformation
579 / 895
Konvergenz (2)
Stochastik für
InformatikerInnen
Wolfgang Kössler
Def. 48 (fast sichere Konvergenz)
1. Grundbegriffe
Eine Folge {Xn }n∈N zufälliger Variablen heißt
2. Kombinatorik
fast sicher konvergent gegen eine zufällige Variable
3. Bedingte Wkt
X , falls gilt:
4. Klass. Wkt.
5. Zufallsvariablen
P
n
o
ω : lim Xn (ω) = X (ω)
= 1.
n→∞
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
Wir bezeichnen dann: lim Xn = X f.s.
X heißt f.s. Grenzwert der Folge {Xn }.
10.Transformation
580 / 895
Konvergenz (3)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Def. 49 (Konvergenz im p-ten Mittel)
Es seien X1 , . . . , Xn , X zufällige Variablen mit
2. Kombinatorik
E|Xi |p < ∞, E|X |p < ∞.
3. Bedingte Wkt
{Xn } konvergiert im p-ten Mittel gegen X , falls
4. Klass. Wkt.
5. Zufallsvariablen
lim E|Xn − X |p = 0.
n→∞
6. Diskrete ZV
7. Charakteristika
Wir bezeichnen dann: limn→∞ Xn = X p.m.
8. Exponential
(q.m. wenn p = 2).
9. Normal
10.Transformation
581 / 895
Konvergenz (4)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
Def. 50 (Konvergenz in Verteilung)
Es sei {Xn }n∈N eine Folge von zufälligen Variablen.
X sei eine Zufallsgröße mit der Verteilungsfunktion
F (x) = P(X < x).
Die Folge {Xn }n∈N konvergiert in Verteilung gegen
5. Zufallsvariablen
die Zufallsgröße X , wenn für alle x ∈ R, in denen die
6. Diskrete ZV
Funktion F stetig ist, gilt:
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
lim P(Xn < x) = F (x).
n→∞
Wir bezeichnen dann: Xn −→D X .
582 / 895
Konvergenz
Zusammenhänge zwischen den Konvergenzbegriffen (1)
Stochastik für
InformatikerInnen
Wolfgang Kössler
Lemma: Sei X eine Zufallsvariable mit
E|X |p < ∞, p0 < p. Dann gilt
1. Grundbegriffe
E|X |p
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
0
10
p
≤ E|X |p
p1
.
Beweis: Die Funktion g(x) = |x|t ist konvex für
t ≥ 1. Für eine beliebige Zufallsvariable Y gilt
5. Zufallsvariablen
6. Diskrete ZV
(Jensens Ungleichung)
|EY |t ≤ E|Y |t .
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
0
Sei Y = |X |p , t = pp0 ≥ 1. Daraus folgt
p
p 0
0
E|X |p p0 ≤ E |X |p p0 = E|X |p .
583 / 895
Konvergenz
Zusammenhänge zwischen den Konvergenzbegriffen (2)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Folgerung
Sei p0 < p.
2. Kombinatorik
3. Bedingte Wkt
lim Xn = X
n→∞
p0 .m.
p.m. ⇒ lim Xn = X
n→∞
4. Klass. Wkt.
5. Zufallsvariablen
Beweis: Wegen dem letzten Lemma gilt:
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
E|Xn − X |p
0
10
p
≤ E|Xn − X |p
p1
.
2
10.Transformation
584 / 895
Konvergenz
Zusammenhänge zwischen den Konvergenzbegriffen (3)
Stochastik für
InformatikerInnen
Wolfgang Kössler
Lemma
Sei p ≥ 1. Dann gilt
1. Grundbegriffe
2. Kombinatorik
lim Xn = X
n→∞
p.m. ⇒ p–lim n→∞ Xn = X .
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
Beweis: Sei ε > 0. Es gilt für alle n:
P(|Xn − X | > ε) = P(|Xn − X |p > εp )
E|Xn − X |p
≤
εp
Markov-Ungleichung
E|Xn − X |p
= 0.
lim P(|Xn − X | > ε) ≤ lim
n→∞
n→∞
εp
2
585 / 895
Konvergenz
Zusammenhänge zwischen den Konvergenzbegriffen (4)
Stochastik für
InformatikerInnen
Wolfgang Kössler
Die Umkehrung dieses Satzes gilt nicht:
1. Grundbegriffe
Seien X , {Xn }n∈N Zufallsgrößen mit
2. Kombinatorik
4. Klass. Wkt.
5. Zufallsvariablen
1
1
, P(Xn = 0) = 1 − .
n
n
1
α
P(|Xn | > ) = P(Xn = n ) = n → 0,
P(Xn = nα ) =
3. Bedingte Wkt
∀ ∈ (0, 1) :
p − lim Xn = 0.
6. Diskrete ZV
also
7. Charakteristika
Andererseits:
8. Exponential
αp ≥ 1.
E|X |p = nαp−1 konvergiert nicht für
9. Normal
10.Transformation
586 / 895
Konvergenz
Zusammenhänge zwischen den Konvergenzbegriffen (5)
Stochastik für
InformatikerInnen
Satz: Seien X , {Xn }n∈N Zufallsgrößen
Wolfgang Kössler
lim Xn = X
1. Grundbegriffe
2. Kombinatorik
f.s. ⇒ p–lim Xn = X .
Beweis: Es sei ε > 0 beliebig. Dann gilt: 0 ≤
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
≤
lim P(|Xn − X | > ε) ≤ lim P
n→∞
6. Diskrete ZV
7. Charakteristika
= P
∞ [
∞
\
n→∞
9. Normal
10.Transformation
!
{|Xk − X | > ε}
k =n
{|Xk − X | > ε} = P( lim {|Xn − X | > ε})
n→∞
n=1 k =n
8. Exponential
∞
[
= P(lim |Xni − X | > ε) ≤ P({ lim Xn = X }) = 0
n→∞
2
587 / 895
Konvergenz
Zusammenhänge zwischen den Konvergenzbegriffen (6)
Stochastik für
InformatikerInnen
Das folgende Beispiel zeigt, daß stochastische und
Wolfgang Kössler
fast sichere Konvergenz nicht identisch sind.
1. Grundbegriffe
Konstruktion einer Folge {Xn }n∈N zufälliger
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
Variablen mit p–lim Xn = 0, nicht aber lim Xn = 0 f.s.
Es seien Ω = [0, 1] und E = [0, 1] ∩ B 1 gegeben. Für
alle Ereignisse A ⊆ [0, 1] gelte:
Z
0 ≤ P(A) = 1 dx ≤ 1.
A
8. Exponential
9. Normal
Sei {An }n∈N eine Folge von Ereignissen im
10.Transformation
Ereignisfeld E,
588 / 895
Konvergenz
Zusammenhänge zwischen den Konvergenzbegriffen (7)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
An := [k · 2−h , (k + 1) · 2−h ],
∀n ∈ N
wobei für die Zahlen h und k folgendes gelte:
2. Kombinatorik
3. Bedingte Wkt
h, k ∈ Z+ ∪ {0};
4. Klass. Wkt.
n = 2h + k;
5. Zufallsvariablen
0 ≤ k < 2h .
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
(n ≤ 2 · 2h )
Die Folge {Xn }n∈N definieren wir wie folgt:

 1 , falls ω ∈ An
Xn (ω) =
 0 , sonst
10.Transformation
589 / 895
Konvergenz
Zusammenhänge zwischen den Konvergenzbegriffen (8)
Stochastik für
InformatikerInnen
Wolfgang Kössler
Untersuchen wir die stochastische Konvergenz von
1. Grundbegriffe
{Xn }:
2. Kombinatorik
Nach Definition der Folge {Xn }n∈N gilt:
3. Bedingte Wkt
4. Klass. Wkt.
P(|Xn | > ε) = P(|Xn | = 1) = P(An )
= (k + 1) · 2−h − k · 2−h
2
= 2−h ≤ → 0,
n
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
d.h. p–lim Xn = 0.
10.Transformation
590 / 895
Konvergenz
Zusammenhänge (9), Die Intervalle An
Stochastik für
InformatikerInnen
n = 2h + k
h k
0 0 [0, 1]
5 = 22 + 1
2 1 [ 14 , 21 ]
2 = 21 + 0
1 0 [0, 12 ]
6 = 22 + 2
2 2 [ 12 , 43 ]
3 = 21 + 1
1 1 [ 21 , 1]
7 = 22 + 3
2 3 [ 34 , 1]
4 = 22 + 0
2 0 [0, 14 ]
8 = 23 + 0
3 0 [0, 18 ]
Wolfgang Kössler
n = 2h + k
h k
1. Grundbegriffe
1 = 20 + 0
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
An
An
Die Folge {An }n∈N ist nirgends konvergent. Also
n
o
P
ω : lim Xn (ω) = 0
= 0 6= 1.
n→∞
10.Transformation
591 / 895
Konvergenz
Zusammenhänge zwischen den Konvergenzbegriffen (10)
Stochastik für
InformatikerInnen
Wolfgang Kössler
Satz
Es sei {Xn }n∈N eine Folge von zufälligen Variablen,
1. Grundbegriffe
für die es zwei Zufallsgrößen X und Y gibt, so daß
2. Kombinatorik
gilt:
3. Bedingte Wkt
X = p–lim Xn und Y = p–lim Xn .
4. Klass. Wkt.
5. Zufallsvariablen
Dann folgt daraus:
6. Diskrete ZV
7. Charakteristika
8. Exponential
P(X = Y ) = 1.
Beweis: Es sei ε > 0 beliebig. Dann berechnen wir
9. Normal
10.Transformation
P ({ω : |X (ω) − Y (ω)| > ε}) = (∗)
592 / 895
Konvergenz
Beweis des Satzes,(*)=P(|X − Y | > ε)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
= P (|X − Xn + Xn − Y | > ε)
≤ P (|X − Xn | + |Xn − Y | > ε)
≤ P |Xn − X | > 2ε ∪ |Xn − Y | > 2ε
≤ P |Xn − X | > 2ε + P |Xn − Y | > 2ε −
−−→ 0
n→∞
D.h.
P(|X − Y | > ε) = 0 ∀ε > 0.
8. Exponential
9. Normal
P ({ω : X (ω) = Y (ω)}) = 1.
10.Transformation
593 / 895
Konvergenz
Zusammenhänge zwischen den Konvergenzbegriffen (11)
Stochastik für
InformatikerInnen
Lemma
Wolfgang Kössler
p–lim n→∞ Xn = X ⇒ Xn →D X
1. Grundbegriffe
2. Kombinatorik
Beweis: Seien x 0 < x < x 00 ∈ R. Es gilt:
3. Bedingte Wkt
4. Klass. Wkt.
{X < x 0 } = {X < x 0 , Xn < x} ∪ {X < x 0 , Xn ≥ x}
5. Zufallsvariablen
⊆ {Xn < x} ∪ {X < x 0 , Xn ≥ x}
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
⇒
F (x 0 ) ≤ Fn (x) + P(|Xn − X | ≥ x − x 0 )
|
{z
}
→0
wegen
Xn →p X
0
F (x ) ≤ limn→∞ Fn (x)
10.Transformation
594 / 895
Konvergenz
Beweis von p–lim n→∞ Xn = X ⇒ Xn →D X (2)
Stochastik für
InformatikerInnen
Weiterhin
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
{Xn < x} = {X < x 00 , Xn < x} ∪ {X ≥ x 00 , Xn < x}
⊆ {X < x 00 } ∪ {X ≥ x 00 , Xn < x}
⇒
3. Bedingte Wkt
4. Klass. Wkt.
Fn (x) ≤ F (x 00 ) + P(|Xn − X | ≥ x 00 − x)
{z
}
|
→0
5. Zufallsvariablen
6. Diskrete ZV
wegen
Xn →p X
00
limn→∞ Fn (x) ≤ F (x )
7. Charakteristika
8. Exponential
9. Normal
Beides zusammen:
F (x 0 ) ≤ limn→∞ Fn (x) ≤ limn→∞ Fn (x) ≤ F (x 00 )
10.Transformation
595 / 895
Konvergenz
Beweis von p–lim n→∞ Xn = X ⇒ Xn →D X (3)
Stochastik für
InformatikerInnen
Wolfgang Kössler
Wenn jetzt x Stetigkeitsstelle und x 0 → x − 0 und
x 00 → x + 0 so F (x 0 ) → F (x) und F (x 00 ) → F (x) und
1. Grundbegriffe
lim Fn (x) = F (x).
2. Kombinatorik
3. Bedingte Wkt
Die Rückrichtung gilt i.A. nicht:
4. Klass. Wkt.
5. Zufallsvariablen
X ∼ Bi(1, 12 ), Xn = 1 − X
∀n ∈ N
6. Diskrete ZV
X und Xn besitzen dieselbe Verteilung Bi(1, 12 ),
7. Charakteristika
Xn →D X .
8. Exponential
Es gilt aber nicht: Xn →p X , da
9. Normal
10.Transformation
|Xn − X | = 1 ∀n ∈ N
596 / 895
Konvergenzarten
Stochastik für
InformatikerInnen
Wolfgang Kössler
Wir kennen vier verschiedene Arten der Konvergenz
1. Grundbegriffe
einer Folge von Zufallsgrößen gegen eine zufällige
2. Kombinatorik
Variable. Sie bilden z.T. eine gewisse Hierarchie.
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
lim Xn = X f.s. =⇒ p–lim Xn = X
=⇒ Xn −→D X
6. Diskrete ZV
7. Charakteristika
8. Exponential
lim Xn = X q.m. =⇒ p–lim Xn = X
Die Umkehrungen gelten im allgemeinen nicht.
9. Normal
10.Transformation
597 / 895
Konvergenz in Verteilung
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
Xn ∼ Bi(n, pn ),
lim npn = λ,
Y ∼ Poi(λ)
⇒ Xn →D Y .
4. Klass. Wkt.
Diese Aussage kennen wir schon von früher.
5. Zufallsvariablen
Weitere werden wir im nächsten Abschnitt
6. Diskrete ZV
kennenlernen.
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
598 / 895
Stochastik für
InformatikerInnen
Frohe Weihnachten
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
nächste Vorlesung:
7. Charakteristika
8. Exponential
9. Normal
Mo., 4.1.10
10.Transformation
599 / 895
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Ein Frohes und
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
Gesundes Neues Jahr!
10.Transformation
599 / 895
Inhalt
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
14.1 Das Gesetz der Großen Zahlen
14.2 Der Satz von G LIVENKO –C ANTELLI
3. Bedingte Wkt
14.3 Konvergenz von Folgen zufälliger
4. Klass. Wkt.
Variablen
5. Zufallsvariablen
14.4 Der zentrale Grenzwertsatz
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
600 / 895
14.4 Der zentrale Grenzwertsatz
Stochastik für
InformatikerInnen
Der Zentrale Grenzwertsatz
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
Es seien X1 , . . . , Xn unabhängige, identisch verteilte
Zufallsvariablen mit µ := EXi ; σ 2 := Var Xi . Seien
Zufallsgrößen Zn , Z n und Yn definiert durch:
n
P
Zn :=
Xi bzw. Z n := Znn und
i=1
√ Zn − µ
Zn − nµ
Yn = n ·
= √
σ
nσ
Dann gilt:
8. Exponential
9. Normal
10.Transformation
lim P
n→∞
Z√
n −n·µ
n·σ
< x = lim P (Yn < x) = Φ(x)
n→∞
601 / 895
Der zentrale Grenzwertsatz
Stochastik für
InformatikerInnen
Wolfgang Kössler
Beweis: Als Hilfsmittel werden charakteristische
2
Funktionen verwendet, siehe unten.
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
Bem.: Die Folge {Yn }n∈N konvergiert in Verteilung
gegen eine Zufallsgröße Z , Yn −→D Z , Z ∼ N (0, 1).
Anwendungen:
Simulation bei der Erzeugung einer
normalverteilten Zufallsgröße aus
7. Charakteristika
8. Exponential
Pseudozufallszahlen
9. Normal
Approximation von Wkt.-verteilungen (insbes.
10.Transformation
von Teststatistiken)
602 / 895
Der zentrale Grenzwertsatz
Genauigkeitsabschätzung (1)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
Satz (B ERRY-E SS ÉEN)
Es seien die Voraussetzungen des zentralen
3. Bedingte Wkt
Grenzwertsatzes erfüllt und M := E|Xi − µ|3 < ∞.
4. Klass. Wkt.
Dann gilt:
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
0.8 · M
Z√
n −n·µ
< x − Φ(x) < 3 √ =: K ,
P
n·σ
σ · n
8. Exponential
9. Normal
10.Transformation
603 / 895
Der zentrale Grenzwertsatz
Genauigkeitsabschätzung nach Berry-Esséen (2)
Stochastik für
InformatikerInnen
Es seien Xi ∼ R(0, 1), µ = 12 , σ 2 =
1
12
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
Z+∞
M = E|Xi − µ|3 =
|x − µ|3 · f (x) dx
−∞
3. Bedingte Wkt
Z1
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
=
|x − 12 |3 dx = 2 ·
0
Z1
(x − 12 )3 dx =
1
32
1
2
7. Charakteristika
8. Exponential
n
12
100
1000
K
0.3
0.104
0.033
9. Normal
10.Transformation
604 / 895
Der zentrale Grenzwertsatz
Genauigkeitsabschätzung (3)
Stochastik für
InformatikerInnen
Seien Xi ∼ Poi(λ), EXi = Var Xi = λ
Wolfgang Kössler
1. Grundbegriffe
1
≤ E|Xi − λ|4
41
= (λ + 3λ2 ) 4
E|Xi − λ|3
=
E(Xi − λ)4
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
13
M3 =
41
1
Berry-Esseen Schranke:
5. Zufallsvariablen
7. Charakteristika
3
3
6. Diskrete ZV
K ≤
0.8(λ + 3λ2 ) 4
0.8 · 3 4
→λ→∞ √
=: K 0
3√
n
λ2 n
8. Exponential
9. Normal
10.Transformation
n
K0
12
100
1000
0.52
0.18
0.058
605 / 895
Der zentrale Grenzwertsatz
Xi Bernoulli
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Satz (M OIVRE –L APLACE)
Es seien Xi ∼ Bi(1, p), unabhängig. Dann gilt für
P
Zn = ni=1 Xi (∼ Bi(n, p)):
2. Kombinatorik
3. Bedingte Wkt
Zn →D Z ∼ N np, np(1 − p)
4. Klass. Wkt.
5. Zufallsvariablen
Bem.: Für ausreichend großes n ∈ N kann die
6. Diskrete ZV
Binomialverteilung durch eine Normalverteilung
7. Charakteristika
ersetzt werden,
8. Exponential
9. Normal
10.Transformation
P(Zn < y) ≈ Φ
y −n·p
p
n · p · (1 − p)
!
.
606 / 895
Satz von M OIVRE –L APLACE
Beweis
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
Beweis: Mit EZn = np und Var Zn = np(1 − p) folgt
unter Anwendung des Zentralen Grenzwertsatzes:
y −n·µ
Zn − n · µ
√
P(Zn < y) = P
< √
n·σ
n·σ
4. Klass. Wkt.
5. Zufallsvariablen
= P
Zn − n · p
p
n · p · (1 − p)
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
≈ Φ
y −n·p
<p
!
y −n·p
n · p · (1 − p)
!
p
n · p · (1 − p)
2
10.Transformation
607 / 895
Der zentrale Grenzwertsatz
Satz von M OIVRE –L APLACE
Stochastik für
InformatikerInnen
Wolfgang Kössler
Es seien n = 1000 und p = 0.4. Gesucht werde die
Wahrscheinlichkeit P(Zn < 300). Es gilt:
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
P(Zn < 300) =
X
P(Zn = x)
x<300
4. Klass. Wkt.
5. Zufallsvariablen
=
i=0
6. Diskrete ZV
7. Charakteristika
8. Exponential
299 X
1000
i
0.4i (1 − 0.4)1000−i
großer Rechenaufwand.
besser: Anwendung des Satzes von
9. Normal
10.Transformation
M OIVRE –L APLACE.
608 / 895
Satz von M OIVRE –L APLACE
Beispiel, Fortsetzung
Stochastik für
InformatikerInnen
Es gilt:
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
P(Zn < 300) ≈ Φ
= Φ
3. Bedingte Wkt
4. Klass. Wkt.
√ 300−1000·0.4
1000·0.4·(1−0.4)
−100
√
240
≈Φ
−100
15.49
= Φ(−6.45) = 1 − Φ(6.45) ≈ 0
| {z }
≈1
5. Zufallsvariablen
6. Diskrete ZV
Bem.: Die Anwendung des Satzes von
7. Charakteristika
8. Exponential
M OIVRE –L APLACE setzt voraus, daß n ∈ N
9. Normal
hinreichend groß ist.
10.Transformation
Faustregel: n · p ≥ 10 und n · (1 − p) ≥ 10.
609 / 895
Satz von M OIVRE –L APLACE
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
610 / 895
Der zentrale Grenzwertsatz
Xi Poisson
Stochastik für
InformatikerInnen
Wolfgang Kössler
SeienXi ∼ Poi(λi ), i = 1, . . . , n
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt

Xi :
0
1
2
...
k
...



p0i p1i p2i . . . pki . . .
Zn :=
n
X
Xi
i=1
4. Klass. Wkt.
j
λi
j!
· e−λi ,
EXi = Var Xi = λi .
5. Zufallsvariablen
mit pji =
6. Diskrete ZV
Für den Erwartungswert dieser Zufallsgrößen gilt:
!
n
n
n
X
X
X
EZn = E
Xi =
EXi =
λi
7. Charakteristika
8. Exponential
9. Normal
i=1
i=1
i=1
10.Transformation
611 / 895
Der zentrale Grenzwertsatz
Poisson
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Lemma
Es seien X1 und X2 unabhängig,
2. Kombinatorik
X1 , X2 ∼ Poi(λi ), i = 1, 2). Dann ist die Zufallsgröße
3. Bedingte Wkt
Z2 := X1 + X2 ebenfalls P OISSON–verteilt und es gilt:
4. Klass. Wkt.
Z2 ∼ Poi(λ1 + λ2 ).
5. Zufallsvariablen
6. Diskrete ZV
Bem: Vergleichen Sie die folgende Formel mit der
7. Charakteristika
Faltungsformel für stetige Zufallsvariablen.
8. Exponential
Erinnerung: EXi = λ;
Var Xi = λ.
9. Normal
10.Transformation
612 / 895
Der zentrale Grenzwertsatz
Poisson, Beweis des Satzes
Stochastik für
InformatikerInnen
Beweis: Es gilt für alle k ∈ N:
Wolfgang Kössler
1. Grundbegriffe
P(Z2 = k) =
p1 (t) · p2 (k − t)
t=0
2. Kombinatorik
3. Bedingte Wkt
k
X
=
k X
λt
1
t!
·e
−λ1
4. Klass. Wkt.
t=0
5. Zufallsvariablen
k X
λt ·λk−t
6. Diskrete ZV
=
t!·(k −t)!
= e−(λ1 +λ2 ) ·
9. Normal
10.Transformation
2
·e
· e−(λ1 +λ2 )
−λ2
t=0
7. Charakteristika
8. Exponential
1
·
λk−t
2
(k−t)!
1
k!
·
k
X
λt ·λk−t ·k!
1
2
t!·(k−t)!
t=0
=
e−(λ1 +λ2 )
k!
· (λ1 + λ2 )k
(Binom. Formel)
613 / 895
Der zentrale Grenzwertsatz
Poisson
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Sei λi = λ (i = 1, . . . , n). Dann
n
X
Zn =
Xi ∼ Poi(n · λ).
i=1
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
Wir wenden jetzt den Zentralen Grenzwertsatz an.
Dann erhalten wir für hinreichend großes λ0 := n · λ:
0
Z√
n −n·µ
n −λ
<
x
=
P
<
x
≈ Φ(x).
P Z√
n·σ
λ0
Also kann auch eine P OISSON–Verteilung durch eine
7. Charakteristika
8. Exponential
Normalverteilung approximiert werden, falls die
9. Normal
Parameter λi (i = 1, . . . , n) alle gleich λ sind und der
10.Transformation
Faktor n · λ hinreichend groß ist (etwa n · λ ≥ 10).
614 / 895
Der zentrale Grenzwertsatz
Poisson
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Bem.: Sind die Parameter λi (i = 1, . . . , n) nicht alle
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
gleich, so gilt die Aussage trotzdem, falls ihre
P
Summe hinreichend groß ist (λ0 := λi ≥ 10).
Zn − λ0
√
∼ N (0, 1) approx.
λ0
8. Exponential
9. Normal
10.Transformation
615 / 895
χ2-Verteilung
Stochastik für
InformatikerInnen
Wolfgang Kössler
Seien Xi unabhängig, Xi ∼ N (0, 1), i = 1, . . . , n.
1. Grundbegriffe
Y =
2. Kombinatorik
n
X
Xi2 ∼ χ2n ,
i=1
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
d.h. Y ist χ2 verteilt mit n Freiheitsgraden.
Dichte:
6. Diskrete ZV
7. Charakteristika
8. Exponential
fY (y) =



1
n
2 2 Γ( n2 )

0
x
n−2
2
x
e− 2 ,
falls x ≥ 0
sonst.
9. Normal
10.Transformation
616 / 895
χ2-Verteilung
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
EY = nEXi2 = n
n
X
Var Y = E(Y − n) = E( (Xi2 − 1))2 = nE(X12 − 1)2
2
i=1
3. Bedingte Wkt
4. Klass. Wkt.
=
nE(X14
−
2EX12
s.f .S.
5. Zufallsvariablen
Pn
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
+ 1) = n(|{z}
3 −2 + 1) = 2n.
⇒ lim P
n→∞
X2 − n
√ i
< y = Φ(y)
2n
n
X
x − n
Xi2 < x) ≈ Φ √
P(
2n
i=1
i=1
617 / 895
χ2-Verteilung
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
P
n = 30, x = 23.364: P( ni=1 Xi2 < x) = 0.2
3. Bedingte Wkt
Approximation durch eine Normalverteilung:
4. Klass. Wkt.
5. Zufallsvariablen
x − n
Φ √
= Φ(−0.8567) = 1 − 0.8042 = 0.1958.
2n
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
618 / 895
χ2-Verteilung, Fortsetzung
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
bleibt z.z.: EXi4 = 3.
Z ∞
√
x2
4
x 4 e− 2 dx
2πEXi =
−∞
Z ∞
x2
1 1
= 2
x 4 e− 2 dx, t = x 2 , dx = t − 2 dt
2
Z ∞0
Z ∞
3
t
t
5
=
t 2 e− 2 dt =
t 2 −1 e− 2 dt
5. Zufallsvariablen
0
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
EXi4
0
5 5
1 5
22 = Γ 2 + 22
= Γ
2 √
2
√
5
π
= 1·3·
· 2 2 = 3 · 2π
4
= 3.
619 / 895
χ2-Verteilung, Fortsetzung
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
Dabei haben wir verwendet:
Z ∞
Γ(λ)
t λ−1 e−αt dt = λ
α
0
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
Γ(n + 1) = nΓ(n) = n!
√
1
π
Γ(n + ) = 1 · 3 · 5 · · · (2n − 1) n
2
2
8. Exponential
9. Normal
10.Transformation
620 / 895
χ2-Verteilung
Veranschaulichung für verschiedene n
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
621 / 895
∗
Beweis des Zentralen
Grenzwertsatzes
Stochastik für
InformatikerInnen
Sei φX −µ die charakteristische Funktion von Xi − µ.
Wolfgang Kössler
Da die ersten beiden Momente (µ, σ 2 ) existieren,
1. Grundbegriffe
E(Xi − µ) = 0, E(Xi − µ)2 ) = σ 2 , folgt aus der
2. Kombinatorik
Taylorreihendarstellung
3. Bedingte Wkt
4. Klass. Wkt.
φX −µ (t) =
j=0
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
k
X
E(Xi −µ)j
(it)j
1
+o(t k ) = 1− σ 2 t 2 +o(t 2 )
j!
2
Die ZV
Xi − µ
√
nσ
haben die charakteristische Funktion
t 1 2
φX −µ √
=1−
t + o(t 2 )
2n
nσ
622 / 895
∗
Beweis des Zentralen
Grenzwertsatzes (2)
Stochastik für
InformatikerInnen
Wolfgang Kössler
Die ZV Yn =
1. Grundbegriffe
Funktion
2. Kombinatorik
3. Bedingte Wkt
Pn
i=1
φYn (t) =
φX −µ
X
√i −µ
nσ
hat also die charakteristische
t √
nσ
n
t2
t 2 n
= 1−
+ o( ) .
2n
n
4. Klass. Wkt.
5. Zufallsvariablen
Es gilt:
6. Diskrete ZV
7. Charakteristika
ln 1 −
t 2 n
t2
t2 t2
t2
+ o( ) = n ln 1 −
+ o( ) → − .
2n
n
2n
n
2
8. Exponential
9. Normal
(vgl. Taylorreihenentwicklung des Logarithmus)
10.Transformation
623 / 895
∗
Beweis des Zentralen
Grenzwertsatzes (3)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
ln φYn (t) → −
t2
2
t2
φYn (t) → e− 2 .
4. Klass. Wkt.
5. Zufallsvariablen
D.h. die charakteristische Fkt. von Yn konvergiert
6. Diskrete ZV
gegen die charakteristische Fkt. der
7. Charakteristika
Standard-Normalverteilung (sogar gleichmäßig).
8. Exponential
Aus dem Konvergenzsatz folgt: Yn → Z ∼ N (0, 1).
9. Normal
10.Transformation
624 / 895
Zentraler Grenzwertsatz
Beispiele
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
Münzwurf: 1000 mal. Wie groß ist die Wkt., dass
weniger als 475 mal Zahl fällt?
Xi = 1 falls Zahl, Xi = 0 sonst.
P
P( 1000
i=1 Xi < 475) =
3. Bedingte Wkt
4. Klass. Wkt.
1 P
p
Xi −
1000
q
P( 103
1
4
5. Zufallsvariablen
6. Diskrete ZV
1
2
|
{z
∼N (0,1)
p
475
q
103 1000
−
1
2
)
1
4
}
8. Exponential
√
0.475 − 0.5
≈ Φ( 1000
)
1
9. Normal
= Φ(−1.58) ≈ 0.057.
7. Charakteristika
≤
2
10.Transformation
625 / 895
Bedeutung des ZGWS in der Statistik
Stochastik für
InformatikerInnen
• beim Schätzen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
Gesetz der Großen Zahlen: X → µ.
Frage: Wie groß ist der Stichprobenumfang zu
3. Bedingte Wkt
wählen, um eine bestimmte Genauigkeit
4. Klass. Wkt.
zu erreichen?
5. Zufallsvariablen
6. Diskrete ZV
ε, δ vorgegeben, klein (ε, δ < 0.5).
7. Charakteristika
n ist so zu wählen, dass
8. Exponential
9. Normal
P(|X − µ| ≤ ε) ≥ 1 − δ
10.Transformation
626 / 895
Bedeutung des ZGWS beim Schätzen
Fortsetzung
Stochastik für
InformatikerInnen
1 − δ ≤ P(|X − µ| ≤ ε)
√ |X − µ| √
ε = P n√
≤ n√
VarX
VarX
√ (|X − µ| √ ε = P n
≤ n
σ
σ
√ ε
≈ Φ( n )
σ
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
gdw.
√ ε
n
σ
−1
2
σΦ (1 − δ)
n ≥
ε
Φ−1 (1 − δ) ≤
627 / 895
Bedeutung des ZGWS in der Statistik
beim Testen
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
µ := EX , und nehmen hier an, σ 2 = Var X ist
bekannt. Wir testen z.B.
H0 : µ ≤ µ0
gegen H1 : µ > µ0
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
Teststatistik:
√ X − µ0
n
σ
Tn klein spricht für H0 , Tn groß gegen H0 .
Tn =
6. Diskrete ZV
7. Charakteristika
8. Exponential
Fehler 1. Art: H0 ablehnen, obwohl richtig
möchte man begrenzen (≤ α)
9. Normal
Fehler 2. Art: H0 annehmen, obwohl falsch
10.Transformation
sollte auch klein sein (≤ β)
628 / 895
Bedeutung des ZGWS beim Testen
Fortsetzung
Stochastik für
InformatikerInnen
Wolfgang Kössler
Pµ0 (Tn ≥ u1−α ) → α
1. Grundbegriffe
2. Kombinatorik
nach ZGWS
denn
3. Bedingte Wkt
4. Klass. Wkt.
Pµ0 (Tn < u1−α ) → Φ(u1−α ) = 1 − α
5. Zufallsvariablen
6. Diskrete ZV
(wenn µ < µ0 so Pµ (Tn < u1−α ) > Pµ0 (Tn < u1−α ))
7. Charakteristika
Wenn also Tn > u1−α so lehnen wir die
8. Exponential
Nullhypothese ab!
9. Normal
10.Transformation
629 / 895
Bedeutung des ZGWS beim Testen
Beispiel
Stochastik für
InformatikerInnen
Wolfgang Kössler
In der BRD gab es im Zeitraum 1970-1990
insgesamt 25 171 123 registrierte Lebendgeburten,
1. Grundbegriffe
2. Kombinatorik
davon waren 12 241 392 Mädchen.
3. Bedingte Wkt
Berechnen Sie die ein 95% Vertrauensintervall für
4. Klass. Wkt.
die Wahrscheinlichkeit einer Mädchengeburt!
5. Zufallsvariablen
Das zufällige Ereignis einer Mädchengeburt wird
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
dargestellt durch eine Bernoulli-verteilte
Zufallsvariable, Xi ∼ B(1, p). Sei n = 25171123 und
Sn =
n
X
i=1
Xi
die zufällige Anzahl der Mädchengeburten
630 / 895
Bedeutung des ZGWS beim Testen
Beispiel, Fortsetzung
Stochastik für
InformatikerInnen
Wolfgang Kössler
Wir wissen, ESn = n · p und Var Sn = n · p · (1 − p).
1. Grundbegriffe
Weiter sei u0.975 das 0.975-Quantil von N (0, 1),
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
Φ(u0.975 ) = 0.975.
Nachsehen in der Tabelle liefert u0.975 = 1.96.
Aus dem ZGWS folgt
|Sn − np|
P( √
≤ u0.975 ) = 0.95.
Var Sn
9. Normal
10.Transformation
631 / 895
Bedeutung des ZGWS beim Testen
Beispiel, Fortsetzung, 2
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Die folgenden Ungleichungen gelten jeweils mit Wkt.
0.95:
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
|Sn − np| ≤ 1.96 ·
p
np(1 − p)
(Sn − np)2 ≤ 1.962 np(1 − p)
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
n2 p2 − 2Sn np + Sn2 ≤ 1.962 np − 1.962 np2
(n2 + 1.962 n)p2 − (1.962 n + 2nSn )p + Sn2 ≤ 0
9. Normal
10.Transformation
632 / 895
Bedeutung des ZGWS beim Testen
Beispiel, Fortsetzung, 3
Stochastik für
2. Kombinatorik
bzw. wenn wir die Schätzung
Sn
p̂ =
n
für die relative Anzahl der Mädchengeburten
3. Bedingte Wkt
einsetzen,
4. Klass. Wkt.
für die Randpunkte des Vertrauensintervalls
r
1
1.962
1.962
p1,2 =
n
p̂+
±1.96
n
p̂(1
−
p̂)
+
.
n + 1.962
2
4
Hier haben wir
Sn
12241392
p̂ =
=
= 0.48633
n
25171123
95%-Vertrauensintervall: [0.48613, 0.48652].
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
633 / 895
Bedeutung des ZGWS beim Testen
Beispiel, Fortsetzung, 4
Stochastik für
InformatikerInnen
Fortsetzung des vorigen Beispiels
Wolfgang Kössler
Angenommen, es würde gelten p = 12 . Mit welcher
1. Grundbegriffe
Wkt. würden dann höchstens 12 241 392 auftreten?
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
Sn − np
12241392 − np P(Sn ≤ 12241392) = P p
≤ p
np(1 − p)
np(1 − p)
12241392 − np
≈ Φ( p
)
np(1 − p)
7. Charakteristika
= Φ(−137.2) ≤ 3 · 10−4091 .
8. Exponential
9. Normal
10.Transformation
D.h. wir lehnen die Nullhypothese
H0 : p =
1
2
gegen H1 : p 6=
1
2
ab.
634 / 895
Bedeutung des ZGWS
Beispiel
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
Roulette
Beim Roulette gibt es 36 Zahlen, 18 davon sind
schwarz, 18 sind rot, dazu die 0, die ist grün. Bei
Setzen der richtigen Farbe gibt es den doppelten
3. Bedingte Wkt
4. Klass. Wkt.
Einsatz, bei Setzen der richtigen Zahl den 36 fachen
5. Zufallsvariablen
Einsatz. Zwei Spieler A und B spielen folgende
6. Diskrete ZV
Strategie: A setzt auf Farbe, B auf Zahl. Beide
7. Charakteristika
spielen 100 mal, und jetzen jeweils 10 Euro.
8. Exponential
Wie groß ist die Wkt., dass sie nach n = 100 Spielen
9. Normal
mindestens 40 Euro gewonnen haben?
10.Transformation
635 / 895
Roulette, Fortsetzung
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Wir beschreiben die Gewinne/Verluste im i-ten Spiel
2. Kombinatorik
durch Bernoulli-Zufallsvariablen,


10 −10
,
Xi : 
Yi :
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
18
37
19
37


350 −10


1
37
36
37
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
636 / 895
Roulette, Fortsetzung, 2
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
VarXi
EYi
6. Diskrete ZV
7. Charakteristika
8. Exponential
18
19
10
− 10 ·
=−
=: µA
37
37
37
10
= EXi2 − (EXi )2 = 100 − ( )2 =: σA2
37
1
36
10
= 350 ·
− 10 ·
=−
=: µB
37
37
37
1
36
10
= EYi2 − (EYi )2 = 3502
+ (−10)2
− ( )2
37
37
37
EXi = 10 ·
VarYi
9. Normal
10.Transformation
637 / 895
Roulette, Fortsetzung, 3
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
P
100
X
i=1
2. Kombinatorik
≈
3. Bedingte Wkt
4. Klass. Wkt.
=
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
P
100
X
Yi ≥ 40 =
i=1
≈
9. Normal
10.Transformation
P100
i=1 Xi − nµA
√
√
≥
n VarXi
40 − nµA 1−Φ √ √
n VarXi
1 − Φ(0.67) = 0.25
P100
i=1 Yi − nµB
√
P √
≥
n VarYi
40 − nµB 1−Φ √ √
n VarYi
1 − Φ(0.12) = 0.45
Xi ≥ 40 = P
=
40 − nµA √ √
n VarXi
40 − nµB √ √
n VarYi
638 / 895
Inhalt
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
15.1 Einführung
15.2 Momentenschätzung
15.3 Maximum-Likelihood-Schätzung
3. Bedingte Wkt
4. Klass. Wkt.
15.4 EM-Algorithmus
5. Zufallsvariablen
15.5 Kleinste Quadrat Schätzung
6. Diskrete ZV
15.6 Die Cramer-Rao Ungleichung
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
639 / 895
15. Schätzmethoden
Stochastik für
InformatikerInnen
Wolfgang Kössler
15.1. Einführung
1. Grundbegriffe
Eigenschaften von Schätzungen θ̂
2. Kombinatorik
Sei θ̂n = θ̂n (X1 , . . . , Xn ) eine Schätzung eines
3. Bedingte Wkt
Parameters θ, die auf n Beobachtungen
4. Klass. Wkt.
beruht.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
• θ̂n
−−−→
n→∞
θ
• E θ̂n = θ
E θ̂n
−−−→
n→∞
“Konsistenz”
(Minimalforderung)
“Erwartungstreue”
θ “Asymptotische Erw.treue”
10.Transformation
640 / 895
Eigenschaften von Schätzungen (2)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
• var θ̂n möglichst klein: “gute”, “effiziente”
Schätzung
• wenn var θ̂n den kleinstmöglichen Wert annimmt
für alle e-treuen Schätzungen:
θ̂n : “optimale Schätzung”
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
641 / 895
Eigenschaften von Schätzungen (3)
Stochastik für
InformatikerInnen
Wolfgang Kössler
•
1. Grundbegriffe
= var θ̂n + (E θ̂n − θ)2
2. Kombinatorik
−→ minimal oder möglichst klein.
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
MSE = var θ̂n + bias2 θ̂n
•
Eigenschaften sollten “möglichst” auch bei
(kleinen) Abweichungen von der
(Normal-)Verteilungsannahme gelten
7. Charakteristika
8. Exponential
−→ robuste Schätzung.
9. Normal
10.Transformation
642 / 895
Schätzmethoden
Stochastik für
InformatikerInnen
Wolfgang Kössler
Momentenmethode
Man drückt den zu schätzenden Parameter durch die
1. Grundbegriffe
Momente, z.B. E(X ), aus.
2. Kombinatorik
Dann werden die Momente durch die
3. Bedingte Wkt
entsprechenden empirischen Momente,
4. Klass. Wkt.
z.B. der Erwartungswert durch X , ersetzt.
5. Zufallsvariablen
6. Diskrete ZV
Maximum-Likelihood-Schätzung (ML-Schätzung)
7. Charakteristika
Es wird der Schätzwert für den unbekannten
8. Exponential
Parameter ermittelt, der anhand der vorliegenden
9. Normal
Daten, am meisten für diesen Paramter spricht (most
10.Transformation
likely).
643 / 895
Schätzmethoden
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Kleinste-Quadrat-Schätzung (KQS)
Sei θ der zu schätzende Parameter. Man geht aus
von einem Modell, z.B.
2. Kombinatorik
Yi = g(θ, Xi ) + i
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
Dannn versucht man die Summe der Fehlerquadrate
n
X
i=1
2i
=
n
X
(Yi − g(θ, Xi ))2 .
i=1
zu minimieren (Kleinste Quadrate).
10.Transformation
644 / 895
Inhalt
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
15.1 Einführung
15.2 Momentenschätzung
15.3 Maximum-Likelihood-Schätzung
3. Bedingte Wkt
4. Klass. Wkt.
15.4 EM-Algorithmus
5. Zufallsvariablen
15.5 Kleinste Quadrat Schätzung
6. Diskrete ZV
15.6 Die Cramer-Rao Ungleichung
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
645 / 895
15.2 Momentenschätzung
Stochastik für
InformatikerInnen
Wolfgang Kössler
Momentenschätzung bei Normalverteilung
Seien X1 , . . . , Xn ∼ N (µ, σ 2 ).
1. Grundbegriffe
µ = EXi
2. Kombinatorik
=⇒
µ̂ = X
3. Bedingte Wkt
4. Klass. Wkt.
n
2
2
2
σ = E(X −EX ) ⇒ σ̂ = (Xi −
X )2
1X
=
(Xi −X )2
n
i=1
5. Zufallsvariablen
6. Diskrete ZV
Momentenschätzung bei Exponentialverteilung
7. Charakteristika
Seien X1 , . . . , Xn ∼ Exp(λ).
8. Exponential
9. Normal
10.Transformation
λ=
1
EXi
=⇒
λ̂ =
1
X
646 / 895
Momentenschätzung
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Momentenschätzung bei Binomialverteilung
2. Kombinatorik
Seien X1 , . . . , Xn ∼ Bi(1, p).
3. Bedingte Wkt
4. Klass. Wkt.
p = EXi
=⇒
p̂ = X
5. Zufallsvariablen
6. Diskrete ZV
der relative Anteil der Realisierungen xi = 1.
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
647 / 895
Inhalt
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
15.1 Einführung
15.2 Momentenschätzung
15.3 Maximum-Likelihood-Schätzung
3. Bedingte Wkt
4. Klass. Wkt.
15.4 EM-Algorithmus
5. Zufallsvariablen
15.5 Kleinste Quadrat Schätzung
6. Diskrete ZV
15.6 Die Cramer-Rao Ungleichung
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
648 / 895
15.3 Maximum-Likelihood-Schätzung
Stochastik für
InformatikerInnen
ML-Schätzung bei Binomialverteilung
Wolfgang Kössler
Beobachten n=1000 Jugendliche. Stichprobe
1. Grundbegriffe
(X1 , . . . , Xn )
2. Kombinatorik
Xi = 1
falls Übergewicht festgestellt
3. Bedingte Wkt
Xi = 0
sonst.
4. Klass. Wkt.
Die Wkt., daß die beobachtete Stichprobe auftritt,
5. Zufallsvariablen
6. Diskrete ZV
wenn der Parameter p vorliegt ist
7. Charakteristika
8. Exponential
P(X1 = x1 , . . . , Xn = xn ) =
pXi (1 − p)1−Xi
i=1
9. Normal
10.Transformation
n
Y
= pk (1 − p)n−k ,
wobei k =
n
X
xi .
649 / 895
Maximum-Likelihood-Schätzung
Binomialverteilung
Stochastik für
InformatikerInnen
Der ML-Schätzer ist der Wert, der diese Funktion,
Wolfgang Kössler
Ln (p), Likelihood-Funktion genannt, bzgl. p
1. Grundbegriffe
maximiert. Maximieren statt Ln (p): log Ln (p)
2. Kombinatorik
(Arg.Max. ist dasselbe).
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
ln Ln (p) = ln pk (1 − p)n−k
= k ln p + (n − k) ln(1 − p).
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
Ableiten nach p und Nullsetzen liefert:
k
n−k
−
=0
p 1−p
10.Transformation
650 / 895
Maximum-Likelihood-Schätzung
Binomialverteilung
Stochastik für
InformatikerInnen
Die einzige Lösung ist:
Wolfgang Kössler
n
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
k
1X
p̂ = =
xi
n
n
i=1
Für ein relatives Extremum in (0,1) kommt nur dieser
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
Wert in Betracht. Müssen aber noch die
Likelihood-Funktion an den Rändern betrachten:
Für p = 0 und p = 1 wird ln L(p) = −∞. Also:
8. Exponential
9. Normal
p̂ML =
k
.
n
10.Transformation
651 / 895
Maximum-Likelihood-Schätzung
Normalverteilung, µ unbekannt, σ 2 bekannt
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
ML-Schätzung bei Normalverteilung
Likelihood: fX1 ,...,Xn (x1 , . . . , xn ), die gemeinsame
Dichtefunktion der Xi .
3. Bedingte Wkt
Seien X1 , . . . , Xn unabhängig, Xi ∼ N (µ, 1).
4. Klass. Wkt.
Likelihood:
5. Zufallsvariablen
6. Diskrete ZV
Ln (µ) =
7. Charakteristika
8. Exponential
9. Normal
=
n
Y
i=1
n
Y
i=1
fXi (xi )
(Unabhängigkeit)
1
2
√ e−(xi −µ) /2
2π
10.Transformation
652 / 895
Maximum-Likelihood-Schätzung
Normalverteilung, 2
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
n
X
√
(xi − µ)2
ln Ln (µ) = −n ln( 2π) +
(−
)
2
i=1
∂Ln (µ)
=
∂µ
n
X
(xi − µ)
i=1
5. Zufallsvariablen
6. Diskrete ZV
Nullsetzen liefert die
7. Charakteristika
Maximum-Likelihood-Schätzung
8. Exponential
9. Normal
µ̂ = X .
10.Transformation
653 / 895
Maximum-Likelihood-Schätzung
Normalverteilung, µ und σ 2 unbekannt
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
X1 , . . . , Xn ∼ N (µ, σ 2 )
n
Y
1
1
√
exp − 2 (Xi − µ)2
Ln (µ, σ) =
2σ
2πσ
i=1
n
1 X
(Xi − µ)2
= √ n exp − 2
2σ
2π σ n
i=1
2
1
nS
n(X − µ)2 = √ n exp − 2 exp −
2σ
2σ 2
2π σ n
1
wobei S 2 = n−1
Pn
− X )2 .
P
Die letzte Gleichung folgt aus: ni=1 (Xi − µ)2 =
Pn
2
2
2
i=1 (Xi − X + X − µ) = nS + n(X − µ)
i=1 (Xi
654 / 895
Maximum-Likelihood-Schätzung
Normalverteilung, Fortsetzung
Stochastik für
InformatikerInnen
Log-Likelihood:
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
√
nS 2 n(X − µ)2
−
ln L(µ, σ) = −n ln 2π − n ln σ −
2σ 2
2σ 2
Lösen des Gleichungssystems
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
X −µ
∂ ln L(µ, σ)
=
∂µ
σ2
n nS 2 n(X − µ)2
∂ ln L(µ, σ)
=− + 3 +
0 =
∂σ
σ
σ
σ3
0 =
µ̂ = X ,
σ̂ 2 = S 2
10.Transformation
655 / 895
Maximum-Likelihood-Schätzung
Gleichverteilung
Stochastik für
InformatikerInnen
Wolfgang Kössler
ML-Schätzung bei Gleichverteilung auf (0, θ)
1. Grundbegriffe
2. Kombinatorik
Likelihood: fX1 ,...,Xn (x1 , . . . , xn ),
3. Bedingte Wkt
die gemeinsame Dichtefunktion der Xi .
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
Seien X1 , . . . , Xn unabhängig, Xi ∼ R(0, θ), d.h.

1
falls 0 ≤ xi ≤ θ
fXi (xi ) = θ
0
sonst
8. Exponential
9. Normal
10.Transformation
656 / 895
Maximum-Likelihood-Schätzung
Gleichverteilung, 2
Stochastik für
InformatikerInnen
Likelihood:
Wolfgang Kössler
1. Grundbegriffe
Ln (θ) =
n
Y
fXi (xi )
(Unabhängigkeit)
2. Kombinatorik
i=1
3. Bedingte Wkt

 1n
falls
0
sonst
=
4. Klass. Wkt.
θ
0 ≤ xi ≤ θ
∀xi
5. Zufallsvariablen
6. Diskrete ZV
Maximal, wenn θ ≥ x1 , . . . , xn , und wenn θ möglichst
7. Charakteristika
klein, also
8. Exponential
θ̂ = max(x1 , . . . , xn ).
9. Normal
10.Transformation
657 / 895
Maximum-Likelihood-Schätzung
Stochastik für
InformatikerInnen
Wolfgang Kössler
Gemischte Normalverteilung
Dichte (θ = (µ1 , σ12 , µ2 , σ22 , p)):
1. Grundbegriffe
2. Kombinatorik
f (x; θ) = (1 − p)φ
x − µ2 x − µ1 + pφ
σ1
σ2
3. Bedingte Wkt
4. Klass. Wkt.
Xi ∼ N (µ1 , σ12 ) mit Wkt. (1 − p) und Xi ∼ N (µ2 , σ22 )
5. Zufallsvariablen
mit Wkt. (1 − p), aber welche ist nicht bekannt.
6. Diskrete ZV
Likelihood:
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
L(θ) =
n
Y
i=1
(1 − p)φ(
xi − µ1
xi − µ2 ) + pφ(
)
σ1
σ2
Maximieren des (log-)Likelihood ist schwer.
658 / 895
Lösungsverfahren
Newton-Raphson, allgemein (aber eindimensional)
Stochastik für
InformatikerInnen
Wolfgang Kössler
Taylor-Entwicklung von l 0 (θ) =
∂L(θ)
∂θ
an der Stelle θj
und Nullsetzen
1. Grundbegriffe
0 = l 0 (θ̂) ≈ l 0 (θj ) + (θ̂ − θj )l 00 (θj )
2. Kombinatorik
3. Bedingte Wkt
Lösung:
θ̂ ≈ θj −
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
l 0 (θj )
l 00 (θj )
Iterationsverfahren
l 0 (θj )
l 00 (θj )
Verallgemeinerung auf k-Vektor
θj+1 = θj −
θ j+1 = θ j − H−1 l 0 (θ j ) H : Matrix der 2. Ableitungen
659 / 895
Inhalt
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
15.1 Einführung
15.2 Momentenschätzung
15.3 Maximum-Likelihood-Schätzung
3. Bedingte Wkt
4. Klass. Wkt.
15.4 EM-Algorithmus
5. Zufallsvariablen
15.5 Kleinste Quadrat Schätzung
6. Diskrete ZV
15.6 Die Cramer-Rao Ungleichung
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
660 / 895
15.4 ∗EM-Algorithmus
Allgemeine Idee
Stochastik für
InformatikerInnen
Wolfgang Kössler
E: Expectation
M: Maximization
Iterieren fortlaufend, und berechnen abwechselnd E
1. Grundbegriffe
2. Kombinatorik
und Max.
3. Bedingte Wkt
Angenommen, die Daten Y kommen aus einer
4. Klass. Wkt.
Population, für die direkte Maximierung des
5. Zufallsvariablen
Log-Likelihood schwer ist.
6. Diskrete ZV
Idee: Ergänzen diese Daten um zusätzliche
7. Charakteristika
(natürlich unbekannte) Daten Z , so dass
R
f (y; θ) = f (y, z; θ) dz und das auf f (y, z; θ)
8. Exponential
9. Normal
basierende Likelihood leicht zu maximieren ist.
10.Transformation
661 / 895
∗
EM-Algorithmus
Allgemeine Idee (Fortsetzung)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
Das interessierende komplizierte f (y; θ) ist also
Randdichte des Modells mit einfacherem Likelihood.
Y : beobachtete Daten,
3. Bedingte Wkt
4. Klass. Wkt.
Z : versteckte (latente, fehlende) Daten.
5. Zufallsvariablen
Wenn wir die fehlenden Daten irgendwie “auffüllen”
6. Diskrete ZV
können, haben wir ein leichtes Problem.
7. Charakteristika
Der EM-Algorithmus versucht, iterativ, die fehlenden
8. Exponential
Daten aufzufüllen.
9. Normal
10.Transformation
662 / 895
∗
EM-Algorithmus
zur Illustration: Vereinfachung
Stochastik für
InformatikerInnen
Nehmen an, p =
1
2
und σ12 = σ22 = 1.
Wolfgang Kössler
Direkte Maximierung der Likelihood ist schwer.
1. Grundbegriffe
Führen latente Variablen ein,

0 falls Xi ∼ N (µ1 , σ 2 )
1
Zi =
1 falls X ∼ N (µ , σ 2 )
i
2
2
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
P(Zi = 0) = P(Zi = 1) = p =
1
2
1
2
f (xi |Zi = 0) = φ( xi −µ
), f (xi |Zi = 1) = φ( xi −µ
)
σ1
σ2
P1
Damit gemischte Normal: f (x) = z=0 f (x, z)
f (x, z) = f (z)f (x|z) =
1
φ(x − µ1 )1−z φ(x − µ2 )z
2
663 / 895
Maximum-Likelihood-Schätzung
Gemischte Normalverteilung
Stochastik für
InformatikerInnen
Wolfgang Kössler
vollständige Likelihood (xi , zi )
1. Grundbegriffe
2. Kombinatorik
L=
3. Bedingte Wkt
4. Klass. Wkt.
n
Y
φ(xi − µ1 )1−zi φ(xi − µ2 )zi
i=1
vollständige Log-Likelihood
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
∼
n
n
i=1
i=1
1X
1X
ln L = l = −
(1 − zi )(xi − µ1 )2 −
zi (xi − µ2 )2
2
2
8. Exponential
9. Normal
10.Transformation
664 / 895
Maximum-Likelihood-Schätzung
Gemischte Normalverteilung
Stochastik für
InformatikerInnen
Wolfgang Kössler
Bedingtes erwartetes Likelihood, unter der
1. Grundbegriffe
Bedingung Daten x = (x1 , . . . , xn ) und
2. Kombinatorik
Parametervektor θ j
∼
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
E( l |x, θ j ) =
n
n
i=1
i=1
1X
1X
−
(1−E(Zi |x, θ j ))(xi −µ1 )2 −
E(Zi |x, θ j )(xi −µ2 )2
2
2
8. Exponential
ist eine Funktion von θ j und θ, hier θ j = (µj1 , µj2 ) und
9. Normal
θ = (µ1 , µ2 ). Bezeichnen diese mit J(θ|θ j ).
10.Transformation
665 / 895
Maximum-Likelihood-Schätzung
Gemischte Normalverteilung
Stochastik für
InformatikerInnen
Wolfgang Kössler
Zi ist binär, deshalb E(Zi |x, θ j ) = P(Zi = 1|x, θ j )
1. Grundbegriffe
Satz von Bayes: P(Zi = 1|x, θ j ) =
2. Kombinatorik
f (x|Zi = 1; θ j )P(Zi = 1)
f (x|Zi = 1; θ j )P(Zi = 1) + f (x|Zi = 0; θ j )P(Zi = 0)
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
=
6. Diskrete ZV
7. Charakteristika
8. Exponential
=
φ(xi − µj2 ) 12
φ(xi − µj2 ) 12 + φ(xi − µj1 ) 21
φ(xi − µj2 )
φ(xi − µj2 ) + φ(xi − µj1 )
=: τij
9. Normal
10.Transformation
666 / 895
Maximum-Likelihood-Schätzung
Gemischte Normalverteilung
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Damit (E-Schritt)
n
n
1X
1X
j
2
(1 − τij )(xi − µ1 ) −
τij (xi − µ2 )2
J(θ|θ ) = −
2
2
i=1
2. Kombinatorik
i=1
Zur Maximierung von J (M-Schritt) leiten wir ab nach
3. Bedingte Wkt
8. Exponential
µ1 und µ2 und setzen Null. Dann
Pn
τij xi
j+1
µˆ2
= Pi=1
n
τij
Pni=1
(1 − τij )xi
µˆ1 j+1 = Pi=1
n
i=1 (1 − τij )
9. Normal
Startschätzung θ 0 : z.B. nach Momentenmethode.
10.Transformation
Iteration bis das Verfahren “steht”.
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
667 / 895
Inhalt
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
15.1 Einführung
15.2 Momentenschätzung
15.3 Maximum-Likelihood-Schätzung
3. Bedingte Wkt
4. Klass. Wkt.
15.4 EM-Algorithmus
5. Zufallsvariablen
15.5 Kleinste Quadrat Schätzung
6. Diskrete ZV
15.6 Die Cramer-Rao Ungleichung
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
668 / 895
15.5 Kleinste Quadrat Schätzung
Stochastik für
InformatikerInnen
Wolfgang Kössler
KQS des Lageparameters
Modell:
1. Grundbegriffe
Yi = µ + i
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
Die Summe der Fehlerquadrate
n
X
i=1
2i =
n
X
(Yi − µ)2 .
i=1
minimieren: Differenzieren und Nullsetzen liefert:
8. Exponential
9. Normal
µ̂KQS = Y .
10.Transformation
669 / 895
Kleinste Quadrat-Schätzung
Stochastik für
InformatikerInnen
KQS im einfachen linearen Regressionsmodell
Wolfgang Kössler
Yi = θ2 + θ1 Xi + i
1. Grundbegriffe
f (X , θ1 , θ2 ) = θ1 X + θ2
2. Kombinatorik
3. Bedingte Wkt
∂f
=X
∂θ1
4. Klass. Wkt.
5. Zufallsvariablen
⇒
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
∂f
=1
∂θ2
n
1X
(Yi − (θ1 Xi + θ2 )) · Xi = 0
n
1
n
i=1
n
X
i=1
(Yi − (θ1 Xi + θ2 )) · 1 = 0
670 / 895
Kleinste Quadrat-Schätzung
Stochastik für
InformatikerInnen
⇒
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
X
Xi Yi − θ1
X
Xi2 − θ2
X
Yi − θ1
i
Xi = 0
i
i
i
X
X
Xi − θ2 · n = 0
i
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
Die zweite Gleichung nach θ2 auflösen:
θ2 =
1X
1X
Yi − θ1
Xi
n
n
i
i
9. Normal
10.Transformation
und in die erste einsetzen:
671 / 895
Kleinste Quadrat-Schätzung
Stochastik für
InformatikerInnen
Wolfgang Kössler
X
1. Grundbegriffe
Xi Yi − θ1
X
i
Xi2 −
1X X
1X X
Yi
Xi + θ1
Xi
Xi = 0
n
n
i
i
i
i
i
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
X
Xi Yi −
i
i
9. Normal
i
i
i
i
⇒
P P
1
X
Y
−
SXY
i
i
i
i Xi
i Yi
= 2
=
P 2 n1 P
2
SX
i Xi )
i Xi − n (
X
X
1
=
Yi − θ̂1
Xi
n
P
θ̂1
7. Charakteristika
8. Exponential
X
1X X
1X X Yi
Xi −θ1 (
Xi2 −
Xi
Xi = 0
n
n
θ̂2
i
i
10.Transformation
672 / 895
Inhalt
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
15.1 Einführung
15.2 Momentenschätzung
15.3 Maximum-Likelihood-Schätzung
3. Bedingte Wkt
4. Klass. Wkt.
15.4 EM-Algorithmus
5. Zufallsvariablen
15.5 Kleinste Quadrat Schätzung
6. Diskrete ZV
15.6 Die Cramer-Rao Ungleichung
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
673 / 895
15.6 ∗Die Cramer-Rao Ungleichung
Stochastik für
InformatikerInnen
Wolfgang Kössler
Sei θ ein zu schätzender Parameter einer Population
mit Dichte f .
1. Grundbegriffe
Sei θ̂ = θn eine erwartungstreue Schätzung von θ.
2. Kombinatorik
Cramer-Rao-Ungleichung
3. Bedingte Wkt
4. Klass. Wkt.
var (θ̂) ≥
1
,
nI(f , θ)
wobei
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
∂ ln f (X , θ) 2
I(f , θ) = E
∂θ
Z
∂ ln f (x, θ) 2
=
f (x, θ) dx
∂θ
die sogenannte Fisher-Information ist.
674 / 895
Cramer-Rao-Ungleichung
Beispiele
Stochastik für
InformatikerInnen
f normal
Wolfgang Kössler
f (x, µ) = √
1. Grundbegriffe
1
2πσ
e−
(x−µ)2
2σ 2
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
√
(x − µ)2
ln f (x, µ) = − ln( 2πσ) −
2σ 2
∂ ln f (x, µ)
x −µ 1
=
·
∂µ
σ
σ
Z ∞
1
x − µ 2
1
· f (x, µ) dx = 2 .
I(f , µ) =
2
σ −∞
σ
σ
9. Normal
10.Transformation
Also :
var µ̂ ≥
σ2
,
n
vgl. mit var X =
σ2
.
n
675 / 895
Cramer-Rao-Ungleichung
Beispiele
Stochastik für
InformatikerInnen
f exponential
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik

λe−λx
f (x, λ) =
0
falls x ≥ 0
sonst.
Es gilt:
I(f , λ) =
3. Bedingte Wkt
4. Klass. Wkt.
1
λ2
(ÜA)
Die Cramer-Rao-Schranke ist also:
5. Zufallsvariablen
λ2
1
=
.
nI(λ)
n
6. Diskrete ZV
7. Charakteristika
8. Exponential
Andererseits:
9. Normal
10.Transformation
var X =
1
1
1
=
=
.
nλ2
nI(λ−1 )
nI(EX )
676 / 895
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
F Doppelexponential (=Laplace)

−λx
falls x ≥ 0
1 λe
f (x, λ) =
2 λeλx
falls x < 0
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential

−1 falls x ≥ 0
ln f (x, µ) = − ln 2 + ln λ + λx
1
falls x < 0

1
falls x ≥ 0
∂ ln f (x, λ)
1
=
−x
−1 falls x < 0
∂λ
λ
9. Normal
10.Transformation
676 / 895
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
Z
∞
2
1
− x · λe−λx dx +
λ
0
Z 0
2
1
λx
+ x · λe dx
−∞ λ
Z ∞
2x
1
+ x 2 ) · λe−λx dx
=
( 2−
λ
λ
0
1
2
2
1
− 2 + 2 = 2.
=
2
λ
λ
λ
λ
1
I(f , λ) =
2
Cramer-Rao-Schranke
1
λ2
=
.
n
nI(f , λ−1 )
676 / 895
Stochastik für
Vergleichen Sie mit (ÜA) E
1
n
Pn
i=1
|Xi | =
1
λ
und
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
n
1
1 X
1
var |Xi | = 2 =
.
var |X | = 2
n
λ n
nI(f , λ−1 )
i=1
677 / 895
Cramer-Rao-Ungleichung
Stochastik für
InformatikerInnen
Wolfgang Kössler
Satz: (Cramer-Rao-Ungleichung)
1. Grundbegriffe
Sei f Dichte der Population, und θ̂ eine
2. Kombinatorik
erwartungstreue Schätzung des Parameters θ. Dann
3. Bedingte Wkt
gilt:
var(θ̂) ≥
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
wobei
1
,
nI(f , θ)
2
∂ ln f (X , θ)
I(f , θ) = E
∂θ
falls der Erwartungswert existiert.
10.Transformation
677 / 895
Cramer-Rao-Ungleichung
Beweis
Stochastik für
InformatikerInnen
Wolfgang Kössler
Sei x = (x1 , . . . , xn ) eine unabhängige Stichprobe
und
1. Grundbegriffe
L(x, θ) :=
2. Kombinatorik
n
Y
3. Bedingte Wkt
die Likelihood der Stichprobe.
4. Klass. Wkt.
Offenbar gilt
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
f (xi , θ)
i=1
Z
L(x, θ) dx = 1.
Rn
und (wir setzen voraus, Differentiation und
Integration dürfen vertauscht werden.)
Z
Z
∂
∂
L(x, θ) dx =
L(x, θ) dx = 0
∂θ Rn
Rn ∂θ
678 / 895
Cramer-Rao-Ungleichung
Beweis, Fortsetzung (1)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
Weiter gilt, da θ̂ erwartungstreu,
Z
θ̂L(x, θ) dx
Eθ̂ =
Rn
Z
Z
∂
∂L(x, θ)
θ̂L(x, θ) dx =
θ̂
dx
∂θ Rn
Rn | ∂θ
{z }
Z
∂ ln L(x, θ)
L(x, θ) dx
θ̂
∂θ
Rn
∂ ln L(x, θ)
E θ̂
∂θ
= θ
= 1
= 1
= 1
Auf den linken Term in der vorletzten Gleichung
9. Normal
10.Transformation
wenden wir die Cauchy-Schwarzsche Ungleichung
an,
679 / 895
Cramer-Rao-Ungleichung
Beweis, Fortsetzung (2)
Stochastik für
InformatikerInnen
Z
Wolfgang Kössler
1 =
1. Grundbegriffe
∂ ln L(x, θ)
θ̂
L(x, θ) dx − θ
∂θ
Rn
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
Z
Z
|R
n
∂
L(x, θ) dx
∂θ
{z
}
∂ ln L(x, θ)
L(x, θ) dx
∂θ
Rn
2
Z
Z ∂ ln L(x, θ)
2
L(x, θ) dx
≤
(θ̂ − θ) L(x, θ) dx ·
∂θ
Rn
Rn
2
Z Pn
∂ i=1 ln f (xi , θ)
= var(θ̂) ·
L(x, θ) dx
∂θ
Rn
2
n Z X
∂ ln f (xi , θ)
= var(θ̂) ·
L(x, θ) dx
∂θ
Rn
680 / 895
=
(θ̂ − θ)
Cramer-Rao-Ungleichung
Beweis, Fortsetzung (3)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
Der Term auf der linken Seite ist varθ̂ · n · I(f ). Die zu
den gemischten Summanden gehörenden Integrale
sind alle Null, (i 6= j):
Z ∂ ln f (xj , θ)
∂ ln f (xi , θ)
f (xi , θ)f (xj , θ) dxi dxj
∂θ
∂θ
R2
Z
∂f (xi , θ) ∂f (xj , θ)
=
dxi dxj = 0.
∂θ
∂θ
R2
9. Normal
10.Transformation
681 / 895
Inhalt
Stochastik für
InformatikerInnen
16.1 Einführung
Wolfgang Kössler
16.2 Erzeugung von Zufallszahlen
1. Grundbegriffe
16.3 Statistische Tests
2. Kombinatorik
16.4 Test auf Gleichverteilung
3. Bedingte Wkt
16.5 Test auf Unabhängigkeit
4. Klass. Wkt.
16.6 Erzeugung diskreter Zufalsvariablen
5. Zufallsvariablen
16.7 Erzeugung stetiger Verteilungen
6. Diskrete ZV
16.8 Kompositionsmethode
7. Charakteristika
8. Exponential
16.9 Verwerfungsmethode
9. Normal
16.10 Korrelierte Zufallsgrößen
10.Transformation
16.11 Ergänzungen
682 / 895
16. Grundlagen der Simulation
16.1 Einführung
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
Komplexe Problemstellungen, die einer
analytischen Behandlung nur sehr schwer oder gar
nicht zugänglich sind
• Lösung von diskreten (oder analytischen)
3. Bedingte Wkt
Optimierungsaufgaben, z.B. Travelling Salesman
4. Klass. Wkt.
Problem
5. Zufallsvariablen
6. Diskrete ZV
• Berechnung von Integralen
• Untersuchung des Verhaltens von Algorithmen, z.B.
7. Charakteristika
Sortier- und Suchverfahren
8. Exponential
9. Normal
10.Transformation
• Theorie oft nur asymptotisch. Verhalten im Endlichen?
• “Wer nix kapiert, der simuliert”.
683 / 895
Grundlagen der Simulation
Einführung (2)
Stochastik für
InformatikerInnen
Stochastische Optimierungsverfahren
Wolfgang Kössler
• Mutation und Selektion
1. Grundbegriffe
• Simulated Annealing
2. Kombinatorik
• Genetische Algorithmen
3. Bedingte Wkt
Allen diesen Verfahren ist gemeinsam, daß
4. Klass. Wkt.
5. Zufallsvariablen
Zustandsübergänge zufällig geschehen und
6. Diskrete ZV
zwischenzeitlich auch mit gewissen (kleinen)
7. Charakteristika
Wahrscheinlichkeiten auch schlechtere Lösungen
8. Exponential
akzeptiert werden.
9. Normal
Vorteil: “Optimum” wird in Polynomialzeit gefunden.
10.Transformation
Nachteil: “Optimum” nur mit hoher Wkt. gefunden. 684 / 895
Grundlagen der Simulation
Einführung (3)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
Grundlage aller Simulationverfahren sind
gleichverteilte Zufallsgrößen X ∼ R(0, 1),
Z x
dt = x,
P(X < x) =
0
d.h. X hat die Dichtefunktion:

 1 falls 0 ≤ x < 1
f (x) =
 0 sonst.
Das Kernproblem der Simulation ist deshalb die
Erzeugung von Folgen unabhängiger gleichverteilter
9. Normal
10.Transformation
Zufallsgrößen Xi .
Bez.: Zufallszahlen.
685 / 895
Inhalt
Stochastik für
InformatikerInnen
16.1 Einführung
Wolfgang Kössler
16.2 Erzeugung von Zufallszahlen
1. Grundbegriffe
16.3 Statistische Tests
2. Kombinatorik
16.4 Test auf Gleichverteilung
3. Bedingte Wkt
16.5 Test auf Unabhängigkeit
4. Klass. Wkt.
16.6 Erzeugung diskreter Zufalsvariablen
5. Zufallsvariablen
16.7 Erzeugung stetiger Verteilungen
6. Diskrete ZV
16.8 Kompositionsmethode
7. Charakteristika
8. Exponential
16.9 Verwerfungsmethode
9. Normal
16.10 Korrelierte Zufallsgrößen
10.Transformation
16.11 Ergänzungen
686 / 895
16.2 Erzeugung von Zufallszahlen
Exakte Methoden von Hand
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
Methode 1: Es werden zufällig, gleichverteilt, die
Zahlen 0, 1, . . . , 9 erzeugt.

0 1 ...
X :
1
1
...
10
10
8
9
1
10
1
10

.
Realisierung:
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
Es werden Karten mit den Zahlen 0 bis 9 beschriftet.
Für jede Zahl ist dabei die Anzahl der Karten gleich.
8. Exponential
Nun zieht man zufällig Karten und legt sie wieder
9. Normal
zurück. Die sich ergebende Folge von Ziffern kann
10.Transformation
man in einer Tabelle aufschreiben:
687 / 895
Erzeugung von Zufallszahlen
Exakte Methoden von Hand (2)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
3 8 7 0 9
2
..
.
4
..
.
9
..
.
1
..
.
3
..
.
1 . . . 2 . . . ..
.
5. Zufallsvariablen
Nun wählen wir zufällig Fünferblocks (es können
6. Diskrete ZV
auch Blocks von mehr Zahlen sein) aus und
7. Charakteristika
betrachten diese als Dezimalstellen, d.h. wir erhalten
8. Exponential
beispielsweise die Zahl 0, 87091. Auf diese Weise
9. Normal
erhalten wir Zufallszahlen auf dem Intervall [0, 1[.
10.Transformation
688 / 895
Erzeugung von Zufallszahlen
Exakte Methoden von Hand (3)
Stochastik für
InformatikerInnen
Methode 2: Wir erzeugen zufällig die Ziffern 0 und 1,
Wolfgang Kössler
beispielsweise mittels Münzwurf. Dann erhalten wir
1. Grundbegriffe
eine Zufallsgröße
2. Kombinatorik
3. Bedingte Wkt

X :
4. Klass. Wkt.
5. Zufallsvariablen

0 1
1
2
1
2

.
Wir erhalten eine Folge d1 d2 d3 . . . dn . . . von Nullen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
und Einsen. Dann ermitteln wir:
n
X
1 n
z :=
di · 2−i ≤ 1 −
2
i=1
Für die so erhaltene Zahl z gilt: 0 ≤ z < 1.
689 / 895
Erzeugung von Zufallszahlen
Exakte Methoden von Hand (4)
Stochastik für
InformatikerInnen
Wolfgang Kössler
Methode 3: (4–Würfel–Spezialwürfeln)
Wir beschriften vier Würfel nach folgender Vorschrift:
1. Grundbegriffe
1. Würfel:
0, 1, 2, 3, 4, 5
2. Würfel:
0, 6, 12, 18, 24, 30
3. Würfel:
0, 36, 72, 108, 144, 180
4. Würfel:
0, 216, 432, 648, 864, 1080
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
Wir werfen diese Würfel gleichzeitig und bilden die
8. Exponential
Summe der Augen. Das ergibt eine Zahl k, für die
9. Normal
gilt: 0 ≤ k ≤ 1295. Die Zufallsgröße
10.Transformation
X :=
k
1295
∼ R(0, 1) annähernd.
690 / 895
Erzeugung von Zufallszahlen
Elektronische Erzeugung
Stochastik für
InformatikerInnen
In elektronischen Geräten fließen auch im Ruhezustand
Wolfgang Kössler
Ströme deren Spannungen zeitlich zufällig schwanken
1. Grundbegriffe
(weißes Rauschen). Nun kann man innerhalb von
2. Kombinatorik
Zeitintervallen gleicher Länge zählen, wie oft ein kritischer
3. Bedingte Wkt
Spannungswert (Schwellenwert) überschritten wird. Z.B.
4. Klass. Wkt.
5. Zufallsvariablen
läßt sich bei jedem Überschreiten des Wertes ein Impuls
6. Diskrete ZV
auslösen. Diese Impulse können dann gezählt werden. Im
7. Charakteristika
Falle einer geraden Anzahl von Impulsen wird als
8. Exponential
Zufallsziffer eine 1 realisiert, andernfalls eine 0. Aus der
9. Normal
resultierenden 0–1–Folge erhält man nach obigem Muster
10.Transformation
eine Zufallszahl.
691 / 895
Erzeugung von Zufallszahlen
Kongruenzmethoden
Stochastik für
InformatikerInnen
Die bisher betrachteten Verfahren sind alle sehr
Wolfgang Kössler
aufwendig (?) und deshalb praktisch schwer
1. Grundbegriffe
anwendbar. Aus diesem Grunde spielen in der
2. Kombinatorik
Simulation nur die mathematischen Methoden
3. Bedingte Wkt
(Algorithmen) zur Erzeugung von Zufallszahlen eine
4. Klass. Wkt.
5. Zufallsvariablen
Rolle. Die mit diesen Methoden generierten
6. Diskrete ZV
Zufallszahlen (gewissermaßen ein Ersatz für
7. Charakteristika
Zufallszahlen) werden auch als Pseudozufallszahlen
8. Exponential
bezeichnet. Algorithmen, die Pseudozufallszahlen
9. Normal
erzeugen, werden auch Zufallszahlengeneratoren
10.Transformation
genannt.
692 / 895
Die multiplikative Kongruenzmethode
Stochastik für
InformatikerInnen
Wolfgang Kössler
Wir geben die Parameter m, a ∈ Z+ und den
Startwert z0 ∈ Z+ vor, und definieren die Folge
1. Grundbegriffe
zi+1 := a · zi
2. Kombinatorik
(mod m).
3. Bedingte Wkt
4. Klass. Wkt.
Offenbar:
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
a·zi = k·m+zi+1 ;
0 ≤ zi+1 < m
(k ∈ N, i = 1, 2, . . .)
zi
, (i = 1, 2, . . .)
m
ist eine Folge von Pseudozufallszahlen zwischen 0
ui =
und 1.
693 / 895
Die multiplikative Kongruenzmethode
(2)
Stochastik für
InformatikerInnen
Frage: Sind diese ui annähernd eine Folge
Wolfgang Kössler
unabhängiger, auf dem Intervall [0, 1[ gleichverteilter
1. Grundbegriffe
Zufallszahlen?
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
Frage: Geeignete Wahl der Zahlen a, m und z0 .
Zufallszahlengeneratoren
RANDU (IBM): m = 231 , a = 216 + 3;
6. Diskrete ZV
7. Charakteristika
RANDA (PRIME): m = 231 − 1, a = 16807;
8. Exponential
SIMULA (CDC): m = 259 , a = 511 .
9. Normal
SAS 8: m = 231 − 1, a = 397204094.
10.Transformation
694 / 895
Verallgemeinerung: Die lineare
Kongruenzmethode
Stochastik für
InformatikerInnen
Wolfgang Kössler
Wir geben wieder Werte vor: m, a, r , z0 ∈ Z+ und
definieren die Folge
1. Grundbegriffe
2. Kombinatorik
zi+1 = (a · zi + r )
(mod m)
3. Bedingte Wkt
4. Klass. Wkt.
und die Folge von Zufallszahlen ist
5. Zufallsvariablen
6. Diskrete ZV
ui :=
zi
m
(i ∈ N).
7. Charakteristika
8. Exponential
9. Normal
Turbo-Pascal:
zn+1 = 134775813zn + 1(mod 232 )
10.Transformation
695 / 895
Die mehrfache lineare
Kongruenzmethode
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Parameter: m, a1 , . . . , ak , r ∈ Z+ Startwerte :
z0 , . . . , z(k−1) ∈ Z+ . Wir definieren die Folge für
n > (k − 1)
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
zn =
k
X
!
al · zn−l + r
Die Zufallszahlenfolge ist dann wieder
7. Charakteristika
8. Exponential
(mod m).
l=1
un :=
zn
.
m
9. Normal
10.Transformation
696 / 895
Wünschenswerte Eigenschaften von
Pseudozufallszahlen
Stochastik für
InformatikerInnen
• Einfacher Algorithmus, wenig Rechenzeit.
Wolfgang Kössler
• möglichst viele verschiedene Zufallszahlen
1. Grundbegriffe
⇒ lange Periode.
2. Kombinatorik
⇒ m möglichst groß (etwa in der Nähe der oberen
3. Bedingte Wkt
4. Klass. Wkt.
Grenze des INTEGER–Bereichs)
5. Zufallsvariablen
• k-Tupel (U1 , . . . , Uk ) ∼ R(0, 1)k , k ≤ 10
6. Diskrete ZV
⇒ Test auf Gleichverteilung.
7. Charakteristika
• “Unabhängigkeit”
8. Exponential
Test auf Autokorrelation
9. Normal
Plot der Punkte (Ui , Ui+k ), k = 1, 2...
10.Transformation
es sollten keine Muster zu erkennen sein.
697 / 895
Multiplikative Generatoren (1)
Stochastik für
InformatikerInnen
Wolfgang Kössler
Ein schlechter Generator
Wir wählen m = 24 , a = 11, z0 = 3.
1. Grundbegriffe
z1 = 11 · 3 (mod 16) = 1
2. Kombinatorik
z2 = 11 · 1 (mod 16) = 11
3. Bedingte Wkt
4. Klass. Wkt.
z3 = 11 · 11 (mod 16) = 9
5. Zufallsvariablen
z4 = 11 · 9 (mod 16) = 3
6. Diskrete ZV
7. Charakteristika
8. Exponential
Dann gilt: z5 = z1 und die Folge wiederholt sich.
9. Normal
Periodenlänge = 4 statt gleich 16 (wie theoretisch
10.Transformation
möglich)
698 / 895
Multiplikative Generatoren (2)
Stochastik für
InformatikerInnen
Wolfgang Kössler
zi+1 = a · zi
(mod m)
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
Satz
4. Klass. Wkt.
Wenn m = 2k , a mod 8 ∈ {3, 5}, z0 ungerade und
5. Zufallsvariablen
r = 0 sind, so hat die multiplikative
6. Diskrete ZV
Kongruenzmethode die maximal mögliche
7. Charakteristika
Periodenlänge 2k −2 .
8. Exponential
9. Normal
10.Transformation
In allen anderen Fällen gilt, daß die Periodenlänge
kleiner als 2k −2 ist.
699 / 895
Lineare Generatoren
Stochastik für
InformatikerInnen
Wolfgang Kössler
zi+1 = a · zi + r
(mod m)
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
Satz
Die lineare Kongruenzmethode besitzt genau dann
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
die volle Periodenlänge m, falls die folgenden
Bedingungen erfüllt sind:
1
ggT(r , m) = 1
(ggT(0, m) := m);
2
a mod p = 1, für alle Primfaktoren p von m;
3
a mod 4 = 1, falls m ein Vielfaches von 4 ist.
9. Normal
10.Transformation
700 / 895
Beurteilung der Generatoren
Punkteplots in R2 (1)
Stochastik für
InformatikerInnen
Wolfgang Kössler
Bilden wir Paare (u1 , u2 ), (u3 , u4 ), (u5 , u6 ), usw.
aufeinanderfolgender Zufallszahlen und tragen sie in
1. Grundbegriffe
das Einheitsquadrat ein. Es entsteht ein
2. Kombinatorik
3. Bedingte Wkt
(zweidimensionales) Scatterplot von Punkten. Die
4. Klass. Wkt.
Pseudozufallszahlen sind evtl. dann akzeptabel,
5. Zufallsvariablen
wenn sich hier eine gleichmäßige Verteilung ergibt
6. Diskrete ZV
und keine Struktur erkennbar ist. Entstehen dagegen
7. Charakteristika
(Linien)muster, so ist der Zufallszahlengenerator
8. Exponential
schlecht.
9. Normal
Verallgemeinerung auf k-Tupel mglich.
10.Transformation
701 / 895
Punkteplots in Rk (2)
Stochastik für
InformatikerInnen
Es sei {zi }i∈N eine Folge von Werten, die mit der
Wolfgang Kössler
multiplikativen Kongruenzmethode mit
1. Grundbegriffe
m = 2t , a = 5 (mod 8) und z0 = 1 (mod 4)
2. Kombinatorik
ermittelt wurden, d.h.:
3. Bedingte Wkt
7. Charakteristika
zi+1 = a · zi (mod 2t ).
zi
ui = t .
2
Wir bilden nun k–Tupel von aufeinanderfolgenden
8. Exponential
Pseudozufallszahlen:
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
9. Normal
10.Transformation
u(k) = (ul , . . . , ul+k−1 ) =
z
zl
, . . . , l+k−1
.
2t
2t
702 / 895
Gitter von Zufallszahlen (1)
Stochastik für
InformatikerInnen
Wolfgang Kössler
Sei u0 die erste Zufallszahl. Die ersten k
Zufallszahlen haben die Form
1. Grundbegriffe
2. Kombinatorik
u0 · ((1, a, . . . , ak −1 )(mod m))/m = u0 ·
b1
+ g,
4
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
wobei
b1 =
1
· 1, a, . . . , ak −1
2t−2
und g ∈ G ein geeigneter Vektor ist, so daß die
ul , l = 1, . . . , k, auch im Intervall (0, 1) liegen.
8. Exponential
9. Normal
Anstelle der ersten kann mit einer beliebigen
10.Transformation
Zufallszahl begonnen werden.
703 / 895
Gitter von Zufallszahlen (2)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
Für diese k–Tupel von Pseudozufallszahlen gilt:
u(k) ∈ 14 · b1 + G ∩ [0, 1[k .
Dabei ist:
G=
( k
X
8. Exponential
9. Normal
10.Transformation
qi · bi : q1 , . . . , qk ∈ Z
i=1

6. Diskrete ZV
7. Charakteristika
)



1

bT1 = t−2 · 

2


1
a
..
.
ak −1





 , b2 = e2 , . . . , bk = ek .



704 / 895
Ein alter Zufallszahlengenerator
Stochastik für
InformatikerInnen
RANDU m = 231 ,
a = 216 + 3,
r =0
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
Xi+2 = (216 + 3)Xi+1 + c1 231
= (216 + 3)2 Xi + c1 231 (216 + 3) + c2 231
= (6 · 216 + 9)Xi + 231 2Xi + (216 + 3)c1 + c2
= 6(216 + 3)Xi − 9Xi + c3 231
= 6Xi+1 − 9Xi + c4 231
ci ∈ Z, i = 1, . . . , 4.
Daraus folgt:
9. Normal
10.Transformation
Ui+2 − 6Ui+1 + 9Ui ∈ Z.
705 / 895
Beispielmuster (SAS)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
706 / 895
Beispielmuster (2)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
707 / 895
Inhalt
Stochastik für
InformatikerInnen
16.1 Einführung
Wolfgang Kössler
16.2 Erzeugung von Zufallszahlen
1. Grundbegriffe
16.3 Statistische Tests
2. Kombinatorik
16.4 Test auf Gleichverteilung
3. Bedingte Wkt
16.5 Test auf Unabhängigkeit
4. Klass. Wkt.
16.6 Erzeugung diskreter Zufalsvariablen
5. Zufallsvariablen
16.7 Erzeugung stetiger Verteilungen
6. Diskrete ZV
16.8 Kompositionsmethode
7. Charakteristika
8. Exponential
16.9 Verwerfungsmethode
9. Normal
16.10 Korrelierte Zufallsgrößen
10.Transformation
16.11 Ergänzungen
708 / 895
16.3 Statistische Tests von
Pseudozufallszahlen
Wolfgang Kössler
Def. Ein Test ist eine Entscheidungsvorschrift,
die über die Akzeptanz genau einer von zwei
1. Grundbegriffe
alternativen Hypothesen entscheidet.
2. Kombinatorik
Analogie zur Qualitätskontrolle
3. Bedingte Wkt
Ein Käufer soll anhand einer Stichprobe
4. Klass. Wkt.
entscheiden, ob er einen Warenbestand kauft oder
5. Zufallsvariablen
nicht. Wir haben zwei Hypothesen, die Null- und die
6. Diskrete ZV
Alternativhypothese:
Stochastik für
InformatikerInnen
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
H0 : Die Ware ist in Ordnung, z.B. der
Ausschußanteil p ist kleiner oder gleich 2%.
Ha : Die Ware ist schlecht, d.h. p > 2%.
709 / 895
Analogie zur Qualitätskontrolle
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
Der Kunde führt nun bei n Produkten eine Kontrolle
durch,

 0 , falls das Produkt i gut ist,
xi =
 1 , falls das Produkt i schlecht ist.
4. Klass. Wkt.
5. Zufallsvariablen
Dann ist z =
n
P
xi die Anzahl der fehlerhaften
i=1
6. Diskrete ZV
Produkte, die der Kunde gefunden hat. Nun wird vor
7. Charakteristika
dem Test ein kritischer Wert zα festgelegt
8. Exponential
9. Normal
Ist z > zα , so wird die Hypothese H0 abgelehnt;
Ist z ≤ zα , so wird die Hypothese H0 für richtig
10.Transformation
befunden.
710 / 895
Statistische Tests von
Pseudozufallszahlen
Stochastik für
InformatikerInnen
Wolfgang Kössler
Fehlerwahrscheinlichkeiten
1
P(Z > zα |H ist wahr) – die Wahrscheinlichkeit
1. Grundbegriffe
also, daß der Käufer die Ware für schlecht
2. Kombinatorik
befindet und ablehnt, obwohl sie doch in
3. Bedingte Wkt
Ordnung ist. Diese Wahrscheinlichkeit spiegelt
4. Klass. Wkt.
6. Diskrete ZV
das Risiko des Produzenten“ wider.
”
P(Z ≤ zα |H ist falsch) – die Wahrscheinlichkeit
7. Charakteristika
also, daß der Käufer die Ware nimmt, obwohl
8. Exponential
ihre Qualität stark zu wünschen übrig läßt.
5. Zufallsvariablen
2
9. Normal
10.Transformation
Diese Wahrscheinlichkeit spiegelt das Risiko
”
des Käufers“ wider.
711 / 895
Statistische Tests von
Pseudozufallszahlen
Stochastik für
InformatikerInnen
Wolfgang Kössler
Die Entscheidung für HA oder für H0 wird anhand
einer Teststatistik
1. Grundbegriffe
Z = Z (x1 , ..., xn )
2. Kombinatorik
3. Bedingte Wkt
gefällt. Falls Z ∈ K (kritischen Bereich,
4. Klass. Wkt.
Ablehnungsbereich), dann wird H0 abgelehnt, sonst
5. Zufallsvariablen
nicht.
6. Diskrete ZV
7. Charakteristika
8. Exponential
Bei jeder dieser Entscheidungen kann man
Fehlentscheidungen treffen:
9. Normal
Entscheidung für HA obwohl H0 richtig ist: Fehler 1.Art
10.Transformation
Entscheidung für H0 obwohl HA richtig ist: Fehler 2.Art
712 / 895
(Fehl-)Entscheidungstabelle
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
H0 richtig
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
HA richtig
Entscheidung
Entscheidung
für H0
für HA
richtig, Sicher-
Fehler 1. Art
heitswkt. 1 − α
Fehlerwkt. α.
Fehler 2.Art
richtig,
Fehlerwkt. 1-β
Güte β
7. Charakteristika
8. Exponential
9. Normal
Bem.: Entscheidung für H0 heißt nicht notwendig,
dass H0 richtig ist.
10.Transformation
713 / 895
Statistische Tests von
Pseudozufallszahlen
Stochastik für
InformatikerInnen
Wolfgang Kössler
Der Parameter α := P(Z > Zα |H ist wahr) ist meist
vorgegeben. Übliche Werte für α sind 0.05 oder
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
0.01. Gesucht ist eine Testvorschrift, die zur
Minimierung des Risikos des Käufers“ führt.
”
Anwendung auf Pseudozufallszahlen
zu testen:
6. Diskrete ZV
7. Charakteristika
Gleichverteilung der Pseudozufallszahlen über
8. Exponential
dem Intervall [0, 1[;
9. Normal
Unabhängigkeit der Pseudozufallszahlen.
10.Transformation
714 / 895
Inhalt
Stochastik für
InformatikerInnen
16.1 Einführung
Wolfgang Kössler
16.2 Erzeugung von Zufallszahlen
1. Grundbegriffe
16.3 Statistische Tests
2. Kombinatorik
16.4 Test auf Gleichverteilung
3. Bedingte Wkt
16.5 Test auf Unabhängigkeit
4. Klass. Wkt.
16.6 Erzeugung diskreter Zufalsvariablen
5. Zufallsvariablen
16.7 Erzeugung stetiger Verteilungen
6. Diskrete ZV
16.8 Kompositionsmethode
7. Charakteristika
8. Exponential
16.9 Verwerfungsmethode
9. Normal
16.10 Korrelierte Zufallsgrößen
10.Transformation
16.11 Ergänzungen
715 / 895
16.4 Test auf Gleichverteilung
Der χ2 –Anpassungs-Test
Stochastik für
InformatikerInnen
Wolfgang Kössler
Def (χ2 -Verteilung, Erinnerung), Y ∼ χ2k
1. Grundbegriffe
Y1 , . . . , Yk seien unabhängig, identisch verteilte
2. Kombinatorik
Zufallszahlen mit Yi ∼ N (0, 1).
3. Bedingte Wkt
Dann heißt die Zufallsvariable Y mit
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
Y =
k
X
Yi2
i=1
7. Charakteristika
8. Exponential
χ2 -verteilt mit k Freiheitsgraden.
9. Normal
10.Transformation
716 / 895
Der χ2–Anpassungs-Test (2)
Stochastik für
InformatikerInnen
Wolfgang Kössler
Es seien jetzt Xi (i = 1, . . . , n) beliebige unabhängig
und identisch verteilte Zufallsgrößen
1. Grundbegriffe
B = [0, 1)
j −1 j
Aj =
,
k k
2. Kombinatorik
3. Bedingte Wkt
n ≥ 5k
4. Klass. Wkt.
pj = P(X ∈ Aj ) =
5. Zufallsvariablen
6. Diskrete ZV
Wir testen
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
1
k
1
k
1
6
=
k
H0 :
pj =
j = 1, . . . , k
HA :
pj
für ein j
717 / 895
Der χ2–Anpassungs-Test (3)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Wir definieren
k
X
(nj − npj )2
2
χ =
npj
nj = #{Xi : Xi ∈ Aj }
j=1
2. Kombinatorik
3. Bedingte Wkt
Wenn H0 zutrifft, gilt für große n dann approximativ,
χ2 ∼ χ2k −1 .
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
Wenn H0 richtig ist, gilt wegen dem schwachen
Gesetz großer Zahlen (siehe Seite 556): nj ≈ n · pj
Offenbar, 0 ≤ χ2 .
9. Normal
Wenn χ2 ≤ cα wollen wir Hypothese H0 annehmen,
10.Transformation
wenn χ2 > cα lehnen wir diese ab.
718 / 895
Der χ2–Anpassungs-Test (4)
Stochastik für
InformatikerInnen
Wolfgang Kössler
cα wird wie folgt festgelegt:
1. Grundbegriffe
2. Kombinatorik
P(χ2 > cα |H0 richtig) = α
3. Bedingte Wkt
4. Klass. Wkt.
ist die Wahrscheinlichkeit (bzw. das Risiko) dafür,
5. Zufallsvariablen
das trotz “guter” Verteilung (Gleichverteilung) der
6. Diskrete ZV
Zufallszahlen wir die Hypothese H0 ablehnen, d.h.
7. Charakteristika
die Nicht-Gleichverteilung annehmen.
8. Exponential
ZufallszahlenMusterUebung.sas
9. Normal
10.Transformation
719 / 895
Auf der empirischen
Verteilungsfunktion beruhende Tests
Stochastik für
InformatikerInnen
(allgemein)
Erinnerung (empirische Verteilungsfunktion):
Wolfgang Kössler
Seien X1 , ..., Xn unabh. Beobachtungen,
1. Grundbegriffe
2. Kombinatorik
X(1) ≤ ... ≤ X(n) die geordneten Beob. Die Funktion
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
Fn (x) =


0


i
n



1
x < X(1)
X(i) ≤ x < X(i+1)
i = 1...n
X(n) ≤ x
7. Charakteristika
8. Exponential
9. Normal
heißt empirische Verteilungsfunktion.
Satz v. Glivento-Cantelli: Fn (x) → F (x).
10.Transformation
720 / 895
Drei EDF-Tests
Stochastik für
InformatikerInnen
Kolmogorov-Smirnov-Test
Wolfgang Kössler
D = sup |Fn (x) − F0 (x)|
1. Grundbegriffe
2. Kombinatorik
x
Cramer-von
Mises-Test∗
3. Bedingte Wkt
W
4. Klass. Wkt.
5. Zufallsvariablen
2
∞
Z
= n
−∞
Anderson-Darling-Test∗
6. Diskrete ZV
7. Charakteristika
2
Fn (x) − F0 (x) dF0 (x)
A2
Z
=
∞
n
−∞
8. Exponential
(Fn (x) − F0 (x))2
dF0 (x)
F0 (x)(1 − F0 (x))
9. Normal
10.Transformation
hier: F0 (x) = x.
721 / 895
EDF-Tests, nur zur Info.
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Modifikationen für endliche Stichproben
√
√
D: D · ( n − 0.01 + 0.85/ n)
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
A2 :
W 2:
AD 2 · (1.0 + 0.75/n + 2.25/n2 )
CM 2 · (1.0 + 0.5/n)
5. Zufallsvariablen
6. Diskrete ZV
Kritische Werte
7. Charakteristika
W 2 : D’Agostino, Stephens (1986), S. 123.
8. Exponential
A2 : Crawford Moss u.a. (1990)
9. Normal
10.Transformation
722 / 895
Der Kolmogorov–Smirnov–Test
Stochastik für
InformatikerInnen
Erinnerung:
Wolfgang Kössler
lim Dn = lim sup |Fn (x) − x| = 0
n→∞
1. Grundbegriffe
n→∞
x
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
Satz (KOLMOGOROV–S MIRNOV )
Es gilt für x > 0:
∞
X
√
2 2
lim P( n · Dn < x) = 1 + 2
(−1)i · e−2·i ·x
n→∞
i=1
7. Charakteristika
=: Q(x)
8. Exponential
9. Normal
10.Transformation
Q(x) ist die Verteilungsfunktion der
Kolmogorov-Verteilung.
723 / 895
Der Kolmogorov–Smirnov–Test
Praktische Durchführung
Stochastik für
InformatikerInnen
1
Die Pseudozufallszahlen werden der Größe
Wolfgang Kössler
nach geordnet, u(1) < u(2) < . . . < u(n) .
1. Grundbegriffe
3. Bedingte Wkt
EDF: Fn (x) =
3
Wir ermitteln die Zahl
5. Zufallsvariablen
6. Diskrete ZV
4
8. Exponential
9. Normal
Dn := sup |Fn (x) − x| = max max ai , max bi ,
1≤i≤n
1≤i≤n
x
i−1 i
ai := u(i) − n , bi := u(i) − n .
4. Klass. Wkt.
7. Charakteristika
#{ui : ui <x, 0≤x<1}
.
n
2
2. Kombinatorik
cα : 1 − α-Quantil der Kolmogorov-Verteilung.
√
n · Dn > cα =⇒ Ablehnung der Hypothese H0
√
n · Dn ≤ cα =⇒ Annahme der HypotheseH0
10.Transformation
724 / 895
Der Kolmogorov–Smirnov–Test (2)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Dabei ist
√
α = P(H abgelehnt|H0 ) = P( n · Dn > cα |H0 ).
2. Kombinatorik
3. Bedingte Wkt
D.h.
√
Q(cα ) = lim P( n · Dn < cα ) = 1 − α.
n→∞
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
α
cα (gerundet)
0.01
1.63
0.05
1.36
0.1
1.22
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
725 / 895
Inhalt
Stochastik für
InformatikerInnen
16.1 Einführung
Wolfgang Kössler
16.2 Erzeugung von Zufallszahlen
1. Grundbegriffe
16.3 Statistische Tests
2. Kombinatorik
16.4 Test auf Gleichverteilung
3. Bedingte Wkt
16.5 Test auf Unabhängigkeit
4. Klass. Wkt.
16.6 Erzeugung diskreter Zufalsvariablen
5. Zufallsvariablen
16.7 Erzeugung stetiger Verteilungen
6. Diskrete ZV
16.8 Kompositionsmethode
7. Charakteristika
8. Exponential
16.9 Verwerfungsmethode
9. Normal
16.10 Korrelierte Zufallsgrößen
10.Transformation
16.11 Ergänzungen
726 / 895
16.5 Test auf Unabhängigkeit
Der Run–Test
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Run
Jeder Teilabschnitt einer Folge unabhängiger,
identisch verteilter Zufallszahlen, in dem die
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
Zufallszahlen in aufsteigend geordnet sind.
Wir teilen eine Folge in Runs ein:
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
Folge
2
1
2
3
2
4
1
7
8
Run
I.
II.
III.
IV.
Länge des Runs
1
3
2
4
9
V
8. Exponential
9. Normal
10.Transformation
727 / 895
Run-Test (2)
Stochastik für
InformatikerInnen
Wolfgang Kössler
Satz
Es sei u1 , . . . , un eine Folge unabhängiger
1. Grundbegriffe
Zufallsgrößen mit ui ∼ U(0, 1) (i = 1, . . . , n). Dann
2. Kombinatorik
gilt für die zufällige Länge R eines Runs:
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
P(R = r ) =
r
.
(r + 1)!
Wir beschreiben R also durch:


1 2 ...
r
...
.
R: 
1
1
r
. . . (r +1)! . . .
2
3
10.Transformation
728 / 895
Run-Test (3)
Beweis des Satzes
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
Wegen der Unabhängigkeit und der identischen
Verteilung genügt es, die ersten r + 1
Zufallsvariablen zu betrachten. Es gilt:
P(R = r ) = P(U1 ≤ · · · ≤ Ur > Ur +1 )
3. Bedingte Wkt
= P(U1 ≤ · · · ≤ Ur ) − P(U1 ≤ · · · ≤ Ur ≤ Ur +1 )
1
r
1
−
=
=
r ! (r + 1)!
(r + 1)!
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
∞
X
8. Exponential
i=1
9. Normal
10.Transformation
∞
∞
∞
X
1
1 X1 X
1
P(R = i) =
−
=
−
i! (i + 1)!
i!
(i + 1)!
i=1
∞
X
= (
i=0
i=1
i=1
∞
X
1
1
− 1) − (
− 1) = 1.
i!
(i + 1)!
i=0
729 / 895
Run-Test (4)
Stochastik für
InformatikerInnen
Seien u1 , . . . , un Pseudozufallszahlen. Wir testen
Wolfgang Kössler
H0 :
u1 , . . . , un
sind unabhängig
H1 :
u1 , . . . , un
sind abhängig.
gegen
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
R1 , . . . , Rm sei die Folge der Längen der
4. Klass. Wkt.
auftretenden Runs.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
Diese Folgen sind jedoch nicht unabhängig (auch
nicht, wenn Xi stochastisch unabhängig sind)
Deshalb streichen wir nach jedem Run die nächste
9. Normal
Zufallszahl, und berechnen die nachfolgenden
10.Transformation
Runlängen von neuem.
730 / 895
Run-Test (5)
Stochastik für
InformatikerInnen
Wolfgang Kössler
∗
Es entstehen die Größen R1∗ , . . . , Rm
, die
unabhängig sind (Mathar/Pfeiffer, Lemma 6.2.2)
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
Formal sieht das folgendermaßen aus:
Seien die Si die Stellen an denen ein Run zuende ist,
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
S1 = inf{n ∈ N : un+1 < un }
S2 = inf{n ∈ N : n > S1 + 1, un+1 < un }
..
.
Sk +1 = inf{n ∈ N : n > Sk + 1, un+1 < un }
10.Transformation
731 / 895
Run-Test (6)
Stochastik für
InformatikerInnen
Wolfgang Kössler
Dann definieren wir:
R1∗ := S1
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
R2∗ := S2 − S1 − 1
..
.
∗
Rk+1
:= Sk +1 − Sk − 1
5. Zufallsvariablen
8. Exponential
Wenn nun die Hypothese H0 gilt, dann ist:
r
,
P(R ∗ = r ) =
(r + 1)!
9. Normal
und die Ri∗ (i = 1, . . . , m) sind unabhängig.
10.Transformation
Run-Test: Anpassungstest auf diese Verteilung
6. Diskrete ZV
7. Charakteristika
732 / 895
Run-Test (7)
Stochastik für
InformatikerInnen
Teilen Z+ in k disjunkte Teilintervalle auf:
Wolfgang Kössler
[i1 + 1, i2 ], [i2 + 1, i3 ], . . . , [ik + 1, ∞)
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
pj∗
=
ij+1
X
P(R ∗ = l) = P(ij + 1 ≤ R ∗ ≤ ij+1 )
l=ij +1
4. Klass. Wkt.
nj = #i=1,...,m {Ri∗ : ij + 1 ≤ Ri∗ ≤ ij+1 }
5. Zufallsvariablen
k
X
(nj − mpj∗ )2
∼ χ2k−1
χ =
mpj∗
6. Diskrete ZV
2
7. Charakteristika
j=1
8. Exponential
2
9. Normal
Falls χ > kritischer Wert, lehnen wir dir
10.Transformation
Unabhängigkeitshypothese ab.
733 / 895
Run-Test (8)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Gesamtumfang der zu erzeugenden Zufallszahlen
2. Kombinatorik
sollte ≥ 4000 sein.
3. Bedingte Wkt
Wir haben hier einen Anpassungstest auf eine
4. Klass. Wkt.
gegbene diskrete Verteilung gemacht.
5. Zufallsvariablen
χ2 -Anpassungstests (auf eine stetige Verteilung, hier
6. Diskrete ZV
Gleichverteilung) sollten, u.a. wegen der Willkür der
7. Charakteristika
Klasseneinteilung mit Vorsicht betrachtet werden.
8. Exponential
9. Normal
10.Transformation
734 / 895
Autokorrelationstest
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
Sei U1 , . . . , Un eine Folge von zufälligen Variablen.
Für alle m können wir nun bilden:
cov (Um , Um+k )
ρm (k) =
σUm σUm+k
3. Bedingte Wkt
wobei 1 ≤ k ≤
4. Klass. Wkt.
so σUj = σ
n
2
Wenn U1 , . . . , Un identisch verteilt
∀j und
5. Zufallsvariablen
cov (Um , Um+k ) = cov (U1 , Uk +1 )
6. Diskrete ZV
7. Charakteristika
Autokorrelation k-ter Ordnung
8. Exponential
9. Normal
10.Transformation
∀m,
σm (k) = ρ(k) =
k = 1, . . . , n2 .
E(Um · Um+k ) − (EUm )2
σ2
735 / 895
Autokorrelationstest (2)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Sei u1 , . . . , un eine Folge von Realisierungen.
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
ρ̂(k) =
Pn−k 2
1
u
·
u
−
i
i+k
i=1
i=1 ui
n−k
Pn−k 2
Pn−k 2
1
1
i=1 ui − n−k
i=1 ui
n−k
1
n−k
Pn−k
ist die empirische Autokorrelation k-ter Ordnung.
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
736 / 895
Autokorrelationstest (3)
Stochastik für
InformatikerInnen
Wolfgang Kössler
ρ(k) ist die Pearson-Korrelation zwischen zwischen
Ui und Ui+k .
1. Grundbegriffe
2. Kombinatorik
Offenbar, ρ(k) = 0 ∀k ≥ 1, wenn die Zufallszahlen
3. Bedingte Wkt
keine Autokorrelation besitzen.
4. Klass. Wkt.
sollte dann gelten: ρ̂(k) ≈ 0.
5. Zufallsvariablen
Für die u1 , . . . , un
Ersetzen wir die
6. Diskrete ZV
7. Charakteristika
8. Exponential
Ui durch ihre Ränge R1 , . . . , Rn und die
Ui+k durch ihre Ränge S1 , . . . , Sn
9. Normal
dann erhalten wir den
10.Transformation
Spearman-Rang-Korrelationskoeffizient rS .
737 / 895
Autokorrelationstest (4)
Stochastik für
InformatikerInnen
Es gilt asymptotisch
Wolfgang Kössler
1. Grundbegriffe
rS ∼ N (0,
1
).
n−1
2. Kombinatorik
3. Bedingte Wkt
Die Nullhypothese
4. Klass. Wkt.
H0 : keine Autokorrelation
5. Zufallsvariablen
wird also abgelehnt, wenn
6. Diskrete ZV
7. Charakteristika
√
n − 1|rS | ≥ z1−α/2
8. Exponential
9. Normal
z1−α/2 : 1 − α/2-Quantil der
10.Transformation
Standard-Normalverteilung, z0.975 = 1.96.
738 / 895
Inhalt
Stochastik für
InformatikerInnen
16.1 Einführung
Wolfgang Kössler
16.2 Erzeugung von Zufallszahlen
1. Grundbegriffe
16.3 Statistische Tests
2. Kombinatorik
16.4 Test auf Gleichverteilung
3. Bedingte Wkt
16.5 Test auf Unabhängigkeit
4. Klass. Wkt.
16.6 Erzeugung diskreter Zufalsvariablen
5. Zufallsvariablen
16.7 Erzeugung stetiger Verteilungen
6. Diskrete ZV
16.8 Kompositionsmethode
7. Charakteristika
8. Exponential
16.9 Verwerfungsmethode
9. Normal
16.10 Korrelierte Zufallsgrößen
10.Transformation
16.11 Ergänzungen
739 / 895
16.6 Erzeugung diskreter
Zufallsvariablen
Stochastik für
InformatikerInnen

Wolfgang Kössler
X :
1. Grundbegriffe

x1 x2 . . . xm 

.
p1 p2 . . . pm
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
Zerlegen das Intervall [0, 1] in Teilintervalle Ij ,


j−1
j
X
X
Ij = 
pk ,
pk  ,
(p0 = 0)
k =0
k =0
6. Diskrete ZV
7. Charakteristika
Sei u eine Pseudozufallszahl. Wir setzen
8. Exponential
9. Normal
X = xj
falls u ∈ Ij
10.Transformation
740 / 895
Inhalt
Stochastik für
InformatikerInnen
16.1 Einführung
Wolfgang Kössler
16.2 Erzeugung von Zufallszahlen
1. Grundbegriffe
16.3 Statistische Tests
2. Kombinatorik
16.4 Test auf Gleichverteilung
3. Bedingte Wkt
16.5 Test auf Unabhängigkeit
4. Klass. Wkt.
16.6 Erzeugung diskreter Zufalsvariablen
5. Zufallsvariablen
16.7 Erzeugung stetiger Verteilungen
6. Diskrete ZV
16.8 Kompositionsmethode
7. Charakteristika
8. Exponential
16.9 Verwerfungsmethode
9. Normal
16.10 Korrelierte Zufallsgrößen
10.Transformation
16.11 Ergänzungen
741 / 895
16.7 Erzeugung stetiger
Zufallsvariablen
Stochastik für
InformatikerInnen
Wolfgang Kössler
Es sei U ∼ R(0, 1). Wir betrachten die
Transformation
X := ϕ(U),
1. Grundbegriffe
2. Kombinatorik
wobei ϕ monoton wachsend sei. Die Zufallsgröße X
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
ist ebenfalls stetig, und für ihre Dichte gilt (nach der
Transformationsformel für Dichten)
dϕ−1 (x) −1
fX (x) = h ϕ (x) · dx .
Wir wählen nun ϕ := F −1 . Dann erhalten wir:
fX (x) = h(F (x)) ·
X = F −1 (U) ∼ F .
dF (x)
dx
= f (x).
742 / 895
Erzeugung einer normalverteilten
Zufallsvariablen (1)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
Ziel: X ∼ N (0, 1) erzeugen,
1
F (x) := Φ(x) = √ ·
2π
Zx
e
−
t2
2
dt.
−∞
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
Erzeugung einer solchen Zufallsgröße:
6. Diskrete ZV
- Quantilmethode (siehe oben)
7. Charakteristika
- Zentraler Grenzwertsatz
8. Exponential
- Box-Müller Transformation
9. Normal
- Akzeptanzmethode (siehe unten)
10.Transformation
743 / 895
Erzeugung einer normalverteilten
Zufallsvariablen (2)
Stochastik für
InformatikerInnen
Wolfgang Kössler
Quantilmethode
1. Grundbegriffe
U ∼ R(0, 1).
2. Kombinatorik
3. Bedingte Wkt
X := Φ−1 (u) ∼ N (0, 1), denn
dΦ(x)
dΦ(x)
1 − x2
√
fX (x) = h(Φ(x)) ·
=
=
e 2.
dx
dx
2π
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
Problem: Berechnung von Φ−1 (u) ist aufwendig.
Ziel: X ∼ N (µ, σ 2 ) erzeugen,
7. Charakteristika
8. Exponential
Y := µ + σ · Φ−1 (U) ∼ N (µ, σ 2 ).
9. Normal
10.Transformation
744 / 895
Erzeugung einer normalverteilten
Zufallsvariablen (3)
Stochastik für
InformatikerInnen
Zentraler Grenzwertsatz (1)
Wolfgang Kössler
U1 , . . . , Un ∼ R(0, 1) unabhängig. Erwartungswert
1. Grundbegriffe
und Varianz sind
Z1
1
µ := EUi = x dx =
2
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
7. Charakteristika
Pn
lim P
n→∞
Ui − n · µ
√
<x
n·σ
i=1
Pn
lim P
n→∞
10.Transformation
2
=
1
12
= Φ(x).
Einsetzen:
8. Exponential
9. Normal
1
σ := E Ui −
2
0
5. Zufallsvariablen
6. Diskrete ZV
2
n
Ui −
2
q
n
12
i=1
<x
= Φ(x).
745 / 895
Erzeugung einer normalverteilten
Zufallsvariablen (4)
Stochastik für
InformatikerInnen
Zentraler Grenzwertsatz (2)
Wolfgang Kössler
1. Grundbegriffe
Es sei n = 12.
Wir erhalten dann folgende Zufallsgröße X :
2. Kombinatorik
3. Bedingte Wkt
X =
4. Klass. Wkt.
12
X
Ui − 6.
i=1
5. Zufallsvariablen
6. Diskrete ZV
Diese Approximation ist in der Regel ausreichend.
7. Charakteristika
Man braucht jedoch 12 Pseudozufallszahlen, um
8. Exponential
eine standardnormalverteilte Zufallsgröße zu
9. Normal
erhalten.
10.Transformation
746 / 895
Erzeugung einer normalverteilten
Zufallsvariablen (5)
Stochastik für
InformatikerInnen
Wolfgang Kössler
B OX –M ÜLLER–Transformation
Seien U, V ∼ R(0, 1) unabhängig. Dann sind die
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
Zufallsgrößen
X =
4. Klass. Wkt.
5. Zufallsvariablen
Y =
√
√
−2 · ln U · cos(2πV )
−2 · ln U · sin(2πV )
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
unabhängig und standardnormalverteilt,
X , Y ∼ N (0, 1).
Beweis: vgl. Abschnitt Transformationsformel
2
10.Transformation
747 / 895
Erzeugung exponentialverteilter
Zufallsvariablen
Stochastik für
InformatikerInnen
Es sei U ∼ R(0, 1) eine Pseudozufallszahl. Erzeugt
Wolfgang Kössler
werden soll eine Zufallsgröße X ∼ EX(λ) mit der
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
Verteilungsfunktion:

 1 − e−λ·x , falls x ≥ 0;
F (x) =
 0
, sonst.
Dazu wird folgende Transformation verwendet
7. Charakteristika
8. Exponential
9. Normal
1
X := F −1 (U) = − · ln(1 − u) ≥ 0.
λ
10.Transformation
748 / 895
Erzeugung binomialverteilter
Zufallsvariablen
Stochastik für
InformatikerInnen
Wolfgang Kössler
Variante 1: Seien Xi ∼ Bi(1, p). Dann ist
P
X = ni=1 Xi binomialverteilt mit Parametern (n, p).
1. Grundbegriffe
Variante 2: (Intervallmethode)
2. Kombinatorik
Zerlegen das Intervall (0, 1) in disjunkte Teilintervalle
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
der Länge der Einzelwahrscheinlichkeiten,
n k
pk =
p (1 − p)n−k
k
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
(0, 1) =
n
[
Ii = (0, p0 ] ∪ (p0 , p0 + p1 ]∪
i=0
(p0 + p1 , p0 + p1 + p2 ] ∪ · · ·
∪ (1 −
Sei U ∼ R(0, 1). X = i falls U ∈ Ii .
n−1
X
pi , 1)
i=0
749 / 895
Erzeugung P OISSON–verteilter
Zufallsvariablen (1)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
Es ist jetzt eine P OISSON–verteilte Zufallsgröße X zu
erzeugen, d.h.
3. Bedingte Wkt
4. Klass. Wkt.
P(X = i) =
λi −λ
·e
i!
(i = 0, 1, 2, . . .).
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
Variante 1: Intervallmethode
Variante 2: (Über die Exponentialverteilung)
8. Exponential
9. Normal
10.Transformation
750 / 895
Erzeugung P OISSON–verteilter
Zufallsvariablen (2)
Stochastik für
InformatikerInnen
Satz
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
Es seien Y1 , . . . , Yk unabhängige exponentialverteilte
k
P
Yi , Dann gilt für die
Zufallsgrößen und Y (k ) :=
i=1
Dichte der Zufallsvariable Y (k ) :

 λk · y k −1 · e−λ·y , falls y ≥ 0;
(k−1)!
fY (k ) (y) =
 0
, sonst.
Diese Funktion ist die Dichte der sogen.
9. Normal
10.Transformation
E RLANG–Verteilung mit Parametern (k, λ).
751 / 895
Erzeugung P OISSON–verteilter
Zufallsvariablen (3)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Beweis: Wir beweisen die Aussage mittels
vollständiger Induktion. Es sei y ≥ 0.
IA: Y (1) = Y1 ∼ Exp(λ) = Erl(1, λ)
2. Kombinatorik
3. Bedingte Wkt
IV: Es sei die Aussage für k gültig.
4. Klass. Wkt.
IS: Wir zeigen sie für k + 1. Es gilt:
5. Zufallsvariablen
6. Diskrete ZV
Y (k +1) = Y (k ) + Yk +1 .
7. Charakteristika
8. Exponential
Bestimmen die Dichtefunktion fY (k +1) mittels
9. Normal
Faltung der Dichtefunktionen fY (k ) und fY (1) .
10.Transformation
2
752 / 895
Erzeugung P OISSON–verteilten
Zufallsvariablen (4)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Zum Beweis des Satzes:
Z∞
fY (k +1) (y ) =
fY (k) (x) · fY (1) (y − x) dx
0
2. Kombinatorik
3. Bedingte Wkt
Zy
=
4. Klass. Wkt.
=
8. Exponential
10.Transformation
λk +1
(k−1)!
· x k −1 · e−λ·y dx
0
7. Charakteristika
9. Normal
· x k −1 · e−λ·x · λ · e−λ·(y−x) dx
0
Zy
5. Zufallsvariablen
6. Diskrete ZV
λk
(k−1)!
=
λk+1 −λy
(k −1)! e
Zy
x k −1 dx =
λk +1 k −λy
k! y e
0
753 / 895
Erzeugung einer P OISSON–Verteilten
Zufallsvariable (5)
Stochastik für
InformatikerInnen
Wolfgang Kössler
Satz
Sind Yi (i ∈ N) unabhängige, exponentialverteilte
1. Grundbegriffe
Zufallsgrößen (Yi ∼ EX(λ), i ∈ N), so ist die wie folgt
2. Kombinatorik
definierte Zufallsvariable Y P OISSON–verteilt mit
3. Bedingte Wkt
Parameter λ:
4. Klass. Wkt.
(
5. Zufallsvariablen
Y := inf k :
6. Diskrete ZV
k +1
X
)
Yi > 1
∼ Poi(λ).
i=1
7. Charakteristika
8. Exponential
Es gilt also:
9. Normal
10.Transformation
P(Y = i) =
λi −λ
·e
i!
(i = 1, 2, . . .).
754 / 895
Erzeugung einer P OISSON–Verteilten
Zufallsvariable (6)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Beweis: Es gilt:
k
k +1
X
X
P(Y = k) = P(
Yi ≤ 1,
Yi > 1)
i=1
2. Kombinatorik
3. Bedingte Wkt
k
X
= P(
4. Klass. Wkt.
Z
5. Zufallsvariablen
6. Diskrete ZV
k
X
Yi )
i=1
P(Yk +1 > 1 − T |T = t)fT (t) dt
0
Z
1
P(Yk +1 > 1 − t)fT (t) dt
=
0
Z
9. Normal
10.Transformation
Yi ≤ 1, Yk +1 > 1 −
i=1
1
=
7. Charakteristika
8. Exponential
i=1
=
0
1
e−λ(1−t) ·
λk
t k −1 e−λt dt
(k − 1)!
755 / 895
Erzeugung einer P OISSON–Verteilten
Zufallsvariable (7)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
= e
−λ k
Z
λ
0
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
1
t k −1
dt
(k − 1)!
λk
= e−λ ,
k!
P
wobei T = Y (k) = ki=1 Yi Erlang-verteilt ist.
8. Exponential
9. Normal
10.Transformation
756 / 895
Erzeugung einer geometrisch
verteilten Zufallsvariable
Stochastik für
InformatikerInnen
Wolfgang Kössler
Variante 1: Intervallmethode
1. Grundbegriffe
Variante 2: Zur Erzeugung einer geometrisch
2. Kombinatorik
verteilten Zufallsvariablen X ∼ Geo(p) seien
3. Bedingte Wkt
Yi ∼ Bi(1, p) Bernoulli verteilte Zufallsvariablen und
4. Klass. Wkt.
X = min{n : Yn = 1}
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
Variante 3: Sei Y ∼ Exp(λ), d.h. F (y) = 1 − e−λy .
8. Exponential
Die Zufallsvariable bY c + 1 ist geometrisch verteilt
9. Normal
mit p = 1 − e−λ .
10.Transformation
757 / 895
Erzeugung einer geometrisch
verteilten Zufallsvariable (2)
Stochastik für
InformatikerInnen
Wolfgang Kössler
Beweis: Es gilt:
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
P(bY c = k) = P(k ≤ Y < k + 1)
= F (k + 1) − F (k)
= (1 − e−λ(k +1) ) − (1 − e−λk )
= e−λk (1 − e−λ ) = (1 − p)k p
7. Charakteristika
8. Exponential
2
9. Normal
10.Transformation
758 / 895
Inhalt
Stochastik für
InformatikerInnen
16.1 Einführung
Wolfgang Kössler
16.2 Erzeugung von Zufallszahlen
1. Grundbegriffe
16.3 Statistische Tests
2. Kombinatorik
16.4 Test auf Gleichverteilung
3. Bedingte Wkt
16.5 Test auf Unabhängigkeit
4. Klass. Wkt.
16.6 Erzeugung diskreter Zufalsvariablen
5. Zufallsvariablen
16.7 Erzeugung stetiger Verteilungen
6. Diskrete ZV
16.8 Kompositionsmethode
7. Charakteristika
8. Exponential
16.9 Verwerfungsmethode
9. Normal
16.10 Korrelierte Zufallsgrößen
10.Transformation
16.11 Ergänzungen
759 / 895
16.8 Kompositionsmethode
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Sei F eine Linearkombination von mehreren
Verteilungsfunktionen Fi ,
2. Kombinatorik
F =
3. Bedingte Wkt
i Fi ,
i=1
4. Klass. Wkt.
5. Zufallsvariablen
k
X
k
X
i = 1.
i=1
Algorithmus:
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
Erzeuge gleichverteilte Zufallszahl U,
P
Pi
falls U ∈ [ i−1
j=1 j ,
j=1 j simuliere aus Fi .
Es folgen zwei Beispiele.
10.Transformation
760 / 895
Kompositionsmethode (2)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
Kontaminierte Normalverteilung
F (x) = (1 − )Φ
x − µ2 x − µ1 + Φ
σ1
σ2
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
Doppelexponential (Laplace)
X1 ∼ exp(λ)

X1
X =
−X
1
falls U ≤
1
2
falls U >
1
2
9. Normal
10.Transformation
761 / 895
Inhalt
Stochastik für
InformatikerInnen
16.1 Einführung
Wolfgang Kössler
16.2 Erzeugung von Zufallszahlen
1. Grundbegriffe
16.3 Statistische Tests
2. Kombinatorik
16.4 Test auf Gleichverteilung
3. Bedingte Wkt
16.5 Test auf Unabhängigkeit
4. Klass. Wkt.
16.6 Erzeugung diskreter Zufalsvariablen
5. Zufallsvariablen
16.7 Erzeugung stetiger Verteilungen
6. Diskrete ZV
16.8 Kompositionsmethode
7. Charakteristika
8. Exponential
16.9 Verwerfungsmethode
9. Normal
16.10 Korrelierte Zufallsgrößen
10.Transformation
16.11 Ergänzungen
762 / 895
16.9 Verwerfungsmethode
(Accept-Reject Sampling)
Stochastik für
InformatikerInnen
F habe Dichte f , aber die Zufallszahlen seien
Wolfgang Kössler
schwierig direkt zu erzeugen.
1. Grundbegriffe
Erzeugung von Zufallszahlen mit der Dichte g sei
2. Kombinatorik
“leicht”.
3. Bedingte Wkt
M := sup
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
x
f (x)
<∞
g(x)
Algorithmus:
1. Simuliere U ∼ R(0, 1)
2. Simuliere Y ∼ g
8. Exponential
9. Normal
10.Transformation
3. Akzeptiere X = Y , falls U ≤
1 f (Y )
M g(Y )
sonst gehe
nach 1. (neuer Versuch)
763 / 895
Verwerfungsmethode (2)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
1 f (Y )
P(Y akzeptiert) = P U ≤
M g(Y )
Z 1 f (Y ) =
P U≤
Y = y g(y) dy
M g(Y )
Z
1 f (y)
1
=
· g(y) dy = .
M g(y)
M
7. Charakteristika
(Integration über den Definitionsbereich von Y )
8. Exponential
Im Mittel müssen also M Zufallszahlen Y erzeugt
9. Normal
werden.
10.Transformation
764 / 895
Verwerfungsmethode (3)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
Die Methode ist korrekt, denn:
Z x
P(Y = y|Y akzept)g(y) dy
P(X ≤ x|Y akzept.) =
−∞
Z x
P(Y akzept,Y=y)
=
g(y) dy
P(Y akzept.)
−∞
1 f (y )
Z P U ≤ M g(y )
=
g(y) dy
P(Y akzept.)
Z x
1 f (y)
= M
g(y) dy
−∞ M g(y)
= F (x).
10.Transformation
765 / 895
Verwerfungsmethode (4)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
1
2
f (x) = √ e−x /2 (Normal)
2π
1 −|x|
e
(Doppelexp)
g(x) =
2
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
r
f (x)
2 −x 2 /2+|x|
sup
= sup
e
π
x g(x)
x
r
2
2
=
sup e(−x +2|x|−1+1)/2
π x
r
r
2 1/2
2 1/2
−(x−1)2
=
e sup e
=
e ≈ 1.315.
π
π
x,x≥0
766 / 895
Verwerfungsmethode (5)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
767 / 895
Inhalt
Stochastik für
InformatikerInnen
16.1 Einführung
Wolfgang Kössler
16.2 Erzeugung von Zufallszahlen
1. Grundbegriffe
16.3 Statistische Tests
2. Kombinatorik
16.4 Test auf Gleichverteilung
3. Bedingte Wkt
16.5 Test auf Unabhängigkeit
4. Klass. Wkt.
16.6 Erzeugung diskreter Zufalsvariablen
5. Zufallsvariablen
16.7 Erzeugung stetiger Verteilungen
6. Diskrete ZV
16.8 Kompositionsmethode
7. Charakteristika
8. Exponential
16.9 Verwerfungsmethode
9. Normal
16.10 Korrelierte Zufallsgrößen
10.Transformation
16.11 Ergänzungen
768 / 895
16.10 Erzeugung von korrelierten
Zufallsgrößen
Stochastik für
InformatikerInnen
Es seien X und Y zwei unabhängige, standardisierte
Wolfgang Kössler
Zufallsgrößen (X , Y ∼ (0, 1)). Wir definieren zwei
1. Grundbegriffe
weitere Zufallsgrößen X ∗ und Y ∗ wie folgt:
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
X ∗ := X
Y ∗ := % · X +
p
1 − %2 · Y
(% ∈ [0, 1])
Beh.: % ist der gewünschte Korrelationskoeffizient
zwischen X ∗ und Y ∗ (s. Abschnitt Korrelation).
7. Charakteristika
8. Exponential
Ist % = 1, dann gilt Y ∗ = X ∗ = X , d.h. die beiden
9. Normal
Zufallsgrößen sind identisch. Wird % = 0 gewählt, so
10.Transformation
sind beide Zufallsvariablen unabhängig.
769 / 895
Inhalt
Stochastik für
InformatikerInnen
16.1 Einführung
Wolfgang Kössler
16.2 Erzeugung von Zufallszahlen
1. Grundbegriffe
16.3 Statistische Tests
2. Kombinatorik
16.4 Test auf Gleichverteilung
3. Bedingte Wkt
16.5 Test auf Unabhängigkeit
4. Klass. Wkt.
16.6 Erzeugung diskreter Zufalsvariablen
5. Zufallsvariablen
16.7 Erzeugung stetiger Verteilungen
6. Diskrete ZV
16.8 Kompositionsmethode
7. Charakteristika
8. Exponential
16.9 Verwerfungsmethode
9. Normal
16.10 Korrelierte Zufallsgrößen
10.Transformation
16.11 Ergänzungen
770 / 895
Das Buffonsche Nadelproblem (1777)
Stochastik für
InformatikerInnen
In der Ebene seien zwei parallele Geraden im
Wolfgang Kössler
Abstand a gezogen.
1. Grundbegriffe
Auf die Ebene wird zufällig eine Nadel der Länge l,
2. Kombinatorik
l ≤ a) geworfen.
3. Bedingte Wkt
Frage: Wie groß ist die Wkt., daß die Nadel eine der
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
Geraden schneidet?
Was heißt Nadel zufällig werfen?
X : Abstand des Nadelmittelpunkts von der
nächstgelegenen Geraden, 0 ≤ X ≤ a2 .
φ: Winkel zwischen Nadel und Geraden, 0 < φ ≤ π.
771 / 895
Das Buffonsche Nadelproblem (2)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
Nadel zufällig werfen:
a
φ ∼ R(0, π).
X ∼ R(0, ),
2
Wann schneidet die Nadel eine Parallele? gdw.
l
sin φ
gdw.
2
der Punkt (φ, X ) unterhalb des Sinusbogens liegt.
X ≤
Fläche unterhalb des Sinusbogens
Fläche des Rechtecks[0, π]x[0, a2 ]
Rπ l
sin φ dφ
2l
= 0 2 a
=
π·2
πa
P =
772 / 895
Das Buffonsche Nadelproblem (3)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Insbesondere: a = 2l:
2. Kombinatorik
P=
3. Bedingte Wkt
4. Klass. Wkt.
1
.
π
Schätzung für π:
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
π̂ =
#Würfe
#Treffer
8. Exponential
9. Normal
10.Transformation
773 / 895
Simulation einer Markov’schen Kette
Stochastik für
InformatikerInnen
gegeben: Zustandsraum: S = {1, 2, . . .}
Wolfgang Kössler
Anfangsverteilung: {pj0 }j=1,2... ,
1. Grundbegriffe
Übergangsmatrix:
(p00 = 0)
2. Kombinatorik
3. Bedingte Wkt
pij i=1,2,...
j=1,2,...
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
1. Schritt: Erzeuge eine Pseudozufallszahl U0 . Falls
i−1
X
8. Exponential
9. Normal
10.Transformation
k =0
pk0
≤ U0 <
i
X
pk0
k =0
so starte im Zustand “i”.
774 / 895
Simulation einer Markov’schen Kette
(2)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
n-ter Schritt: Im n − 1ten Schritt sei der Zustand “i”
2. Kombinatorik
erreicht worden. Erzeuge eine Pseudozufallszahl Un .
3. Bedingte Wkt
Falls
4. Klass. Wkt.
j−1
X
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
pik ≤ Un <
k=0
j
X
pik
k=0
so gehe in den Zustand “j”.
8. Exponential
9. Normal
10.Transformation
775 / 895
∗
Simulation von auf der Kugel-
oberfläche gleichverteilten Zufallsvariablen
Stochastik für
InformatikerInnen
Wolfgang Kössler
Satz
Seien Xi ∼ N (0, 1), i.i.d.
1. Grundbegriffe
Yi =
2. Kombinatorik
3. Bedingte Wkt
Xi
,
R
wobei
4. Klass. Wkt.
R2 =
5. Zufallsvariablen
i = 1, . . . , n,
und
i = 1, . . . , n,
n
X
Xi2 .
i=1
6. Diskrete ZV
7. Charakteristika
Dann gilt
Yi ∼ R(KnO (0, 1)),
8. Exponential
9. Normal
wobei KnO (0, 1) die Oberläche der n-dimensionalen
10.Transformation
Einheitskugel ist.
776 / 895
∗
Simulation von auf der Kugel-
oberfläche gleichverteilten Zufallsvariablen
Stochastik für
InformatikerInnen
Wolfgang Kössler
Sei Kn−1 (0, 1) die n − 1 dim. Einheitsvollkugel. Wir
betrachten die Transformation
1. Grundbegriffe
2. Kombinatorik
G : Rn−1 × R+ → Kn−1 (0, 1) × R+
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
x2
r
...
xn
yn =
r
r = r
y2 =
10.Transformation
777 / 895
∗
Simulation von auf der Kugel-
oberfläche gleichverteilten Zufallsvariablen
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Diese Abbildung ist injektiv und es gilt für G−1 :
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
x2 = r · y2
...
xn = r · yn
6. Diskrete ZV
7. Charakteristika
r = r
8. Exponential
9. Normal
10.Transformation
778 / 895
∗
Simulation von auf der Kugel-
oberfläche gleichverteilten Zufallsvariablen
Stochastik für
InformatikerInnen
Wolfgang Kössler
Die Jacobi-Matrix ist

1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
r
0 . . . 0 y2





0 r . . . 0 y3 



∂G−1 (y2 , . . . , yn , r ) 

J :=
=
.
.
.


∂(y2 , . . . , yn , r )




0 0 . . . r y n 


0 0 ...0 1
8. Exponential
9. Normal
Also: det J = r n−1 .
10.Transformation
779 / 895
∗
Simulation von auf der Kugel-
oberfläche gleichverteilten Zufallsvariablen
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
Die gemeinsame Dichte von
(Y, R) = (Y1 , Y2 , . . . , Yn , R) ist fY,R (y1 , . . . , yn , r ) =

fX,R (ry1 , G−1 (y2 , . . . , yn , r )) det J, y 2 = 1 − Pn y 2
1
2 j
0
sonst

r 2y2
P

 1 n Qn e− 2 j · r n−1 ,
y 2 = 1 − n−1 y 2
(2π) 2
n
j=1

0,

2
 1 n e− r2 · r n−1
falls yn2 = 1 −

0
sonst
(2π) 2
j=1
j
sonst
Pn−1
j=1
yj2
10.Transformation
780 / 895
∗
Simulation von auf der Kugel-
oberfläche gleichverteilten Zufallsvariablen
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
Die Zufallsvektoren (Y1 , . . . , Yn ) und R sind also
unabhängig und wegen
r2
r2
e− 2 · r n−1
r n−1 e− 2 Γ( n2 )
1
=
·
n
n = fχn (r ) ·
n/2
n
−1
(2π)
AKnO (0,1)
2 2 Γ( 2 ) 2π 2
ist
R ∼ χn
mit der Dichte
und Y ∼ R(KnO (0, 1))
1
,
AK O (0,1)
wobei
n
n
8. Exponential
9. Normal
10.Transformation
AKnO (0,1) =
2π 2
Γ( n2 )
die Fläche der n-dimensionalen Einheitskugel ist.
781 / 895
∗
Simulation von auf der Kugel-
oberfläche gleichverteilten Zufallsvariablen
Stochastik für
InformatikerInnen
Wolfgang Kössler
Bem.: Die Fläche der n-dimensionalen
1. Grundbegriffe
Kugeloberfläche ist, vgl. Fichtenholz 3, S.389,
2. Kombinatorik
n
AKnO (0,r )
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
n = 2:
2πr
n = 3:
4πr 2
n = 4:
4π 2 r 3
2π 2
= n r n−1
Γ( 2 )
6. Diskrete ZV
7. Charakteristika
8. Exponential
Γ( 23 ) = 12 Γ( 21 ) =
√
π
2
9. Normal
10.Transformation
782 / 895
17. Markov’sche Ketten
Stochastik für
InformatikerInnen
Wolfgang Kössler
Beispiele
Irrfahrten (auf der Geraden, der Ebene, im Raum)
1. Grundbegriffe
2. Kombinatorik
Ruin des Spielers
3. Bedingte Wkt
Markov Chain Monte Carlo (z.B. Simulated
4. Klass. Wkt.
Annealing)
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
Fragestellungen
Rückkehr-, Absorptionswahrscheinlichkeiten
8. Exponential
Erste Rückkehr
9. Normal
Stationäre Verteilungen
10.Transformation
783 / 895
Inhalt
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
17.1 Definitionen und einfache
Zusammenhänge
17.2 Klassifikation der Zustände
3. Bedingte Wkt
4. Klass. Wkt.
17.3 Rekurrente und transiente Zustände
5. Zufallsvariablen
17.4 Grenzverteilungen
6. Diskrete ZV
17.5 Klassische Beispiele
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
784 / 895
17.1 Definitionen und einfache
Zusammenhänge
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
{Xt }t∈T : Famile von Zufallsgrößen.
T : total geordnete Menge (mit kleinstem Element t0 ).
T endlich, o.B.d.A. T = {0, 1, 2, . . . , k} oder
3. Bedingte Wkt
4. Klass. Wkt.
T abzählber, o.B.d.A. T ∈ {0, 1, 2, . . .} = N
5. Zufallsvariablen
Wir betrachten ein System, das aus einem
6. Diskrete ZV
Anfangszustand für t = t0 schrittweise übergeht
7. Charakteristika
in Zustände für t = t1 , t = t2 , . . ..
8. Exponential
Menge der Zustände: Zustandsraum S,
9. Normal
S = {1, 2, . . . , m} oder S = N oder S = Z.
10.Transformation
785 / 895
Definitionen (2)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
Für jedes t wird der (aktuelle) Zustand durch eine
Zufallsvariable Xt beschrieben,
P(Xt ∈ S) = 1,
Ft (x) := P(Xt < x)
Eine Familie {Xt }t∈T Zufallsgrößen
heißt M ARKOV’sche Kette, falls gilt:
5. Zufallsvariablen
6. Diskrete ZV
P(Xt+1 = j| Xt = i, Xt−1 = it−1 , . . . , X0 = i0 ) =
(t)
P(Xt+1 = j| Xt = i) =: pij .
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
Die Anfangsverteilung der M ARKOV-Kette
(0)
bezeichnen wir mit pi
= P(X0 = i).
786 / 895
Definitionen (3)
Stochastik für
InformatikerInnen
Wolfgang Kössler
Bem.: Wir stellen uns also vor, dass wir, beginnend
1. Grundbegriffe
2. Kombinatorik
im Zustand i0 , über die Zustände i1 , . . . , it−1 in den
3. Bedingte Wkt
Zustand i gelangt sind und nun in einen weiteren
4. Klass. Wkt.
Zustand übergehen wollen. Eine Familie von
5. Zufallsvariablen
Zufallsgrößen ist eine M ARKOV’sche Kette, wenn für
6. Diskrete ZV
den Übergang in diesen Zustand nur der unmittelbar
7. Charakteristika
vorangegangene Zustand, also der Zustand i,
8. Exponential
relevant ist. (Markov-Eigenschaft)
9. Normal
10.Transformation
787 / 895
Definitionen (4)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
Def. (homogene Markov-Kette)
Eine M ARKOV-Kette heißt homogen, wenn für alle
(t)
3. Bedingte Wkt
i, j ∈ S und für alle t ∈ T gilt, daß pij = pij , d.h.
4. Klass. Wkt.
wenn die Übergangswahrscheinlichkeiten
5. Zufallsvariablen
unabhängig vom jeweiligen Schritt t sind.
6. Diskrete ZV
pij heißt Übergangswahrscheinlichkeit vom Zustand i
7. Charakteristika
in den Zustand j.
8. Exponential
9. Normal
10.Transformation
788 / 895
Definitionen (4)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
Die Matrix M = (pij )i,j∈S ,

 p11

 p21

M=
 p
 31

..
.

p12 p13 . . . 

p22 p23 . . . 

,
p32 p33 . . . 


..
..
.
.
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
heißt Übergangsmatrix, falls
pij ≥ 0,
∀i, j ∈ S und
X
pij = 1 ∀i ∈ S,
j∈S
10.Transformation
789 / 895
Definitionen (5)
Stochastik für
InformatikerInnen
Wir werden ausschließlich homogene
Wolfgang Kössler
M ARKOV-Ketten betrachten.
1. Grundbegriffe
Es sei {Xt }t∈T eine solche homogene
2. Kombinatorik
M ARKOV-Kette. Wir definieren:
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
pij (n) := P(Xm+n = j| Xm = i).
Das ist die Wahrscheinlichkeit, daß man nach n
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
Schritten aus dem Zustand i in den Zustand j
gelangt. Da die Kette homogen ist, gilt:
pij (n) = P(Xn = j| X0 = i).
10.Transformation
790 / 895
Einfache Zusammenhänge (1)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
Wie kann nun die Matrix für die Wahrscheinlichkeiten
pij (n) aus der Ein–Schritt–Übergangsmatrix“
”
berechnet werden?


 1 , falls i = j; 
pij (0) =
 0 , sonst.

5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
pij (1) = pij
pij (2) = P(X2 = j| X0 = i)
X
=
P(X2 = j, X1 = k| X0 = i)
k ∈S
10.Transformation
791 / 895
Einfache Zusammenhänge (2)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
Wenden die Formel der Totalen Wkt. an,
S
Ai := {X1 = i}, für alle i ∈ S, denn:
Ai = Ω
i∈S
und Ai ∩ Aj = ∅, für alle i, j ∈ S mit i 6= j;
3. Bedingte Wkt
4. Klass. Wkt.
pij (2) =
=
X
P(X2 = j| X1 = k ) · P(X1 = k| X0 = i)
k∈S
7. Charakteristika
8. Exponential
P(X2 = j| X1 = k, X0 = i) · P(X1 = k | X0 = i)
k ∈S
5. Zufallsvariablen
6. Diskrete ZV
X
=
X
pkj · pik = (M2 )ij
k ∈S
9. Normal
10.Transformation
792 / 895
Einfache Zusammenhänge (3)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
Allgemein gilt die
Rekursion von Chapman–Kolmogorov
Mn = Mn
X
pij (n) =
pik (n − m) · pkj (m)
k ∈S
4. Klass. Wkt.
=
5. Zufallsvariablen
pik (n − 1) · pkj ,
(m = 1).
k ∈S
6. Diskrete ZV
7. Charakteristika
X
Folgerung
8. Exponential
9. Normal
10.Transformation
P(Xn = j) =
X
pkj (n) · pk0 .
k
793 / 895
Beispiele
Stochastik für
InformatikerInnen
Wolfgang Kössler
Ein-Prozessorsystem mit einer I/O–Einheit
1. Grundbegriffe
S = {1, 2}
2. Kombinatorik
1: Programmstatus, in dem sich das System
3. Bedingte Wkt
befindet, wenn es ein Programm abarbeitet
4. Klass. Wkt.
(Prozessor aktiv)
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
2: I/O–Status, der dann angenommen wird, wenn die
I/O–Einheit aktiviert wird.
Für jeden Schritt n, den das System macht,
8. Exponential
9. Normal
definieren wir eine Zufallsgröße Xn , Xn = i, i ∈ S.
10.Transformation
794 / 895
Ein-Prozessorsystem (2)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Xn = 1 =⇒ Xn+1 = 1, mit Wahrscheinlichkeit 1 − p
2. Kombinatorik
Xn = 1 =⇒ Xn+1 = 2, mit Wahrscheinlichkeit p
3. Bedingte Wkt
Xn = 2 =⇒ Xn+1 = 1, mit Wahrscheinlichkeit 1
4. Klass. Wkt.
Xn = 2 =⇒ Xn+1 = 2, mit Wahrscheinlichkeit 0
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
Übergangsmatrix:

M=
1−p p
1

.
0
10.Transformation
795 / 895
Ein-Prozessorsystem (3)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
(0)
Anfangsverteilung pi
(0)
p1
= P(X0 = i):
= 1, d.h. die erste Aktion ist mit
Wahrscheinlichkeit Eins die Ausführung eines
Programms;
(0)
4. Klass. Wkt.
p2 = 0, d.h. die erste Aktion ist mit
5. Zufallsvariablen
Wahrscheinlichkeit Null die Aktivierung der
6. Diskrete ZV
I/O–Einheit.

7. Charakteristika
8. Exponential
9. Normal

(1 − p)2 + p p(1 − p)

M2 = 
1−p
p
10.Transformation
796 / 895
Inhalt
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
17.1 Definitionen und einfache
Zusammenhänge
17.2 Klassifikation der Zustände
3. Bedingte Wkt
4. Klass. Wkt.
17.3 Rekurrente und transiente Zustände
5. Zufallsvariablen
17.4 Grenzverteilungen
6. Diskrete ZV
17.5 Klassische Beispiele
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
797 / 895
17.2 Klassifikation der Zustände
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Def (Erreichbarkeit)
Ein Zustand j heißt vom Zustand i aus erreichbar,
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
wenn es eine Zahl n gibt, so daß gilt: pij (n) > 0.
Bez.: i −→ j.
Def. (Kommunikation)
Zwei Zustände i und j kommunizieren, wenn gilt:
i −→ j und j −→ i. Wir schreiben dann: i ←→ j.
9. Normal
10.Transformation
798 / 895
Klassifikation der Zustände
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
Die Relation ←→“ ist eine Äquivalenzrelation:
”
1
Sie ist reflexiv. Es gilt: i ←→ i wegen pii (0) = 1.
2
Sie ist symmetrisch.
3
Sie ist transitiv.
i ←→ j gdw. j ←→ i.
Es gelte i ←→ j und j ←→ k.
D.h. es existieren Zahlen m, n ≥ 0, so daß gilt:
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
pij (m) > 0,
pjk (n) > 0.
Dann folgt aus Chapman–Kolmogorov
X
pik (m + n) =
pil (m) · plk (n)
l∈S
≥ pij (m) · pjk (n) > 0.
799 / 895
Klassifikation der Zustände
Stochastik für
InformatikerInnen
Wolfgang Kössler
Nach m + n Schritten erreicht man folglich vom
1. Grundbegriffe
Zustand i aus den Zustand k. Es gilt also: i −→ k.
2. Kombinatorik
Mit Hilfe der Symmetrieeigenschaft der Relation
3. Bedingte Wkt
4. Klass. Wkt.
←→“, angewendet auf die Voraussetzung, folgt
”
k −→ i.
5. Zufallsvariablen
Folgerung
6. Diskrete ZV
Es sei S der Zustandsraum einer M ARKOV’schen
7. Charakteristika
Kette. Es gibt eine Zerlegung von S in
8. Exponential
9. Normal
Äquivalenzklassen bzgl. der Relation ←→“.
”
10.Transformation
800 / 895
Klassifikation der Zustände
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
Die kommunizierenden Zustände lassen sich weiter
unterteilen.
Def. (wesentliche und unwesentliche Zustände)
Gibt es für einen Zustand i einen Zustand j und eine
Zahl n ≥ 0, so daß
4. Klass. Wkt.
5. Zufallsvariablen
pij (n) > 0, aber pji (m) = 0,
∀m ∈ N
6. Diskrete ZV
7. Charakteristika
gilt, so heißt i unwesentlicher oder auch
8. Exponential
vorübergehender Zustand.
9. Normal
Andernfalls heißt i wesentlicher Zustand.
10.Transformation
801 / 895
Klassifikation der Zustände
Beispiel
Stochastik für
InformatikerInnen
Wolfgang Kössler
Wir betrachten den Zustandsraum S = {1, 2, 3, 4}
und eine M ARKOV- Kette mit der Übergangsmatrix
1. Grundbegriffe

2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
0
1
2
1
2


 1 0 0
 2
M=

 0 0 12

0 0 12
0
1
2
1
2
1
2





.



7. Charakteristika
Zustände 1 und 2: unwesentlich. Für den Zustand 1
8. Exponential
existiert der Zustand 3, für den gilt, daß p13 (1) =
9. Normal
ist. Eine Zahl m, für die p31 (m) > 0 ex. nicht.
10.Transformation
Zustände 2 und 4: analog.
1
2
>0
802 / 895
Klassifikation der Zustände
Stochastik für
InformatikerInnen
Wolfgang Kössler
Fortsetzung des Beispiels
Die Zustände 3 und 4 sind dagegen wesentlich.
1. Grundbegriffe
An der Matrix M kann man die Klassen ablesen.
2. Kombinatorik
Die Elemente des Zustandsraumes sind in hier bereits so
3. Bedingte Wkt
sortiert, daß die unwesentlichen Zustände vorn stehen. In
4. Klass. Wkt.
der Matrix stehen in den ersten beiden Spalten im
5. Zufallsvariablen
6. Diskrete ZV
unteren Bereich nur noch Nullen. Sie zeigen an, daß man
7. Charakteristika
aus den durch die Zeilennummern bezeichneten
8. Exponential
Zuständen nicht mehr in die Zustände, die durch die
9. Normal
betreffenden Spaltennummern gekennzeichnet werden,
10.Transformation
zurückkehren kann.
803 / 895
Klassifikation der Zustände
übergangsmatrix, geordnet
Stochastik für
InformatikerInnen
Zustände
unwesentliche
wesentliche
Wolfgang Kössler
S0
S1
...
Sk
0..0
0..0
1. Grundbegriffe
2. Kombinatorik
unwesentlich
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
wesentlich
0..0
0..0
0..0
0..0
0..0
0..0 0..0
Si die Zustandsklassen, in die der Zustandsraum S
bzgl. der Äquivalenzrelation ←→“ zerlegt werden
”
804 / 895
Klassifikation der Zustände
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
S0 ist die Klasse der unwesentlichen Zustände, die
Si (i ≥ 1) sind die Klassen der wesentlichen
2. Kombinatorik
Zustände.
3. Bedingte Wkt
Man sieht, daß Übergänge nur innerhalb einer
4. Klass. Wkt.
Zustandsklasse möglich sind.
5. Zufallsvariablen
6. Diskrete ZV
Def. (absorbierender Zustand)
8. Exponential
Besteht eine Äquivalenzklasse si bzgl. ←→“ nur aus
”
einem einzigen Zustand (si = {ji }), so heißt dieser
9. Normal
Zustand absorbierender Zustand.
7. Charakteristika
10.Transformation
805 / 895
Klassifikation der Markov-Kette
Stochastik für
InformatikerInnen
Wolfgang Kössler
Def. (Irreduzibilität)
Eine M ARKOV’sche Kette heißt irreduzibel oder
1. Grundbegriffe
unzerlegbar, wenn der Zustandsraum S aus genau
2. Kombinatorik
einer Klasse wesentlicher Zustände besteht.
3. Bedingte Wkt
4. Klass. Wkt.
S = {1, 2},
Übergangsmatrix:
5. Zufallsvariablen



M=

M2 = 
1 0
6. Diskrete ZV
7. Charakteristika
1 0
1 0

 = Mn
∀n ≥ 1.
1 0
8. Exponential
9. Normal
{Xt } ist reduzibel!
10.Transformation
Zustand 2 ist unwesentlich.
Zustand 1 ist absorbierend!!
806 / 895
Beispiel einer irreduziblen MK
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
Sei S = {1, 2, 3},
Übergangsmatrix:


1
1
 2 2 0 


1
1
1 .
M=
 2 4 4 


0 13 32


1
2

2
3
M2 = M = 
8

1
6
8. Exponential
9. Normal
10.Transformation
pij (2) > 0 ∀i, j ∈ S.
3
8
19
48
11
36
1
8


11 
48 

19
36
{Xt } ist irreduzibel!
Alle Zustände kommunizieren miteinander.
807 / 895
Inhalt
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
17.1 Definitionen und einfache
Zusammenhänge
17.2 Klassifikation der Zustände
3. Bedingte Wkt
4. Klass. Wkt.
17.3 Rekurrente und transiente Zustände
5. Zufallsvariablen
17.4 Grenzverteilungen
6. Diskrete ZV
17.5 Klassische Beispiele
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
808 / 895
17.3 Rekurrente und transiente
Zustände
Stochastik für
InformatikerInnen
Sei i fest und
Wolfgang Kössler
fi (n) = P(Xn = i, Xn−1 6= i, . . . , X1 6= i, X0 = i)
1. Grundbegriffe
2. Kombinatorik
die Wahrscheinlichkeit, daß nach n Schritten
3. Bedingte Wkt
erstmalig wieder der Zustand i erreicht wird. Es gilt:
4. Klass. Wkt.
fi (0) = 0 und fi (1) = pii .
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
Bk : Ereignis, erstmals nach k Schritten wieder in i.
Bk = {Xk = i, Xν 6= i
∀ν = 1, . . . , k − 1|X0 = i}
8. Exponential
9. Normal
Bn+1 = {System befand sich während der ersten n
10.Transformation
Schritte nie im Zustand i}.
809 / 895
Rekurrente und transiente Zustände
Stochastik für
InformatikerInnen
Wolfgang Kössler
Offenbar
n+1
[
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
Bl ∩ Bl 0 = ∅ (l 6= l 0 ).
l=1
Dann gilt
pii (n) = P(Xn = i|X0 = i)
n+1
X
=
P(Xn = i|Bk ) · P(Bk )
7. Charakteristika
8. Exponential
9. Normal
Bl = Ω,
=
k=1
n
X
pii (n − k)fi (k) + P(Xn = i|Bn+1 ) · P(Bn+1 )
k =1
10.Transformation
810 / 895
Rekurrente und transiente Zustände
Stochastik für
InformatikerInnen
Wegen P(Xn = i|Bn+1 ) = 0 folgt
Wolfgang Kössler
1. Grundbegriffe
pii (n) =
n
X
fi (k) · pii (n − k)
(n ≥ 1).
k =1
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
Damit läßt sich fi (k) rekursiv berechnen:
fi (0) = 0,
fi (1) = pii
pii (2) = fi (1) · pii (1) + fi (2) · pii (0)
= pii2 + fi (2)
fi (2) = pii (2) − pii2
usw.
X
pii (2) =
pik pki ≥ pii2 .
k
811 / 895
Rekurrente und transiente Zustände
Stochastik für
InformatikerInnen
Wolfgang Kössler
Wir bezeichnen mit
1. Grundbegriffe
Fi :=
2. Kombinatorik
∞
X
fi (j)
j=1
3. Bedingte Wkt
4. Klass. Wkt.
die Wkt., daß man irgendwann in den Zustand i
5. Zufallsvariablen
zurückkehrt.
6. Diskrete ZV
Def. (rekurrente und transiente Zustände)
Ein Zustand i ∈ S heißt rekurrent, wenn Fi = 1 gilt.
7. Charakteristika
8. Exponential
9. Normal
Ist dagegen Fi < 1, so heißt er transient.
10.Transformation
812 / 895
Rekurrente und transiente Zustände
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
Satz
Zustand i rekurrent ⇒ er wird unendlich oft erreicht
3. Bedingte Wkt
4. Klass. Wkt.
mit Wkt. 1.
5. Zufallsvariablen
Zustand i transient ⇒ er kann höchstens endlich oft
6. Diskrete ZV
erreicht werden.
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
813 / 895
Beweis des Satzes (1)
Stochastik für
InformatikerInnen
Wolfgang Kössler
Sei ri (k) die Wkt., dass die MK mindestens k mal
nach i zurückkehrt.
1. Grundbegriffe
2. Kombinatorik
ri (k) =
P(erstmals nach n Schritten zurück)
4. Klass. Wkt.
6. Diskrete ZV
7. Charakteristika
=
∞
X
10.Transformation
ri (k − 1)fi (n)
n=1
= ri (k − 1)
8. Exponential
9. Normal
P(k-1 mal zurück|erstmals nach n Schritten zu
n=1
3. Bedingte Wkt
5. Zufallsvariablen
∞
X
∞
X
fi (n) = ri (k − 1)Fi
n=1
⇒ ri (k) = Fik
814 / 895
Beweis des Satzes (2)
Stochastik für
InformatikerInnen
Wolfgang Kössler
Ist i rekurrent, also Fi = 1, dann ri (k) = 1 ∀k ∈ N.
1. Grundbegriffe
Sei i transient, d.h. Fi < 1.
2. Kombinatorik
Sei Zi die Anzahl der Besuche in i.
3. Bedingte Wkt
4. Klass. Wkt.
P(Zi = k) = Fik (1 − Fi )
5. Zufallsvariablen
6. Diskrete ZV
geometrische Verteilung mit Parameter (1 − Fi ).
7. Charakteristika
8. Exponential
EZi =
1
<∞
1 − Fi
9. Normal
10.Transformation
815 / 895
Rekurrente und transiente Zustände
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
Satz
Ein Zustand i ist genau dann rekurrent, wenn gilt:
∞
P
pii (n) = ∞.
n=0
Er ist genau dann transient, wenn
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
pii (n) < ∞ ist.
n=0
4. Klass. Wkt.
5. Zufallsvariablen
∞
P
Beweis: (für einen anderen Beweis siehe z.B.
Mathar/Pfeifer, Satz 3.2.1)
Erinnerung:
n
X
pii (n) =
fi (k) · pii (n − k)
2
(n ≥ 1)
k =1
Multiplizieren diese Gleichung mit z n und summieren
816 / 895
Beweis des Satzes (1)
Es gilt Pi (z) :=
Stochastik für
InformatikerInnen
Wolfgang Kössler
=
1. Grundbegriffe
2. Kombinatorik
=
5. Zufallsvariablen
6. Diskrete ZV
n=1
∞
X
pii (n)z n
z
n=1
3. Bedingte Wkt
4. Klass. Wkt.
∞
X
=
n
X
n
fi (k) · pii (n − k)
k =1
zfi (1) · pii (1 − 1)
+z 2 fi (1) · pii (2 − 1) + fi (2) · pii (2 − 2)
+z 3 fi (1) · pii (3 − 1) + fi (2) · pii (3 − 2) + fi (3) · pii (3
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
+...
+z n fi (1) · pii (n − 1) + . . . + fi (n) · pii (0)
+...
817 / 895
Beweis des Satzes (2)
Es gilt Pi (z) :=
Stochastik für
InformatikerInnen
Wolfgang Kössler
=
∞
X
ν
zfi (1) 1 +
z pii (ν)
ν=1
1. Grundbegriffe
2. Kombinatorik
∞
X
2
ν
+z fi (2) 1 +
z pii (ν)
ν=1
3. Bedingte Wkt
+...
4. Klass. Wkt.
5. Zufallsvariablen
∞
X
ν
+z fi (n) 1 +
z pii (ν)
n
ν=1
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
+...
∞
X
=
z ν fi (ν) · 1 + Pi (z)
ν=1
= Fi (z) · 1 + Pi (z)
818 / 895
Beweis des Satzes (3)
Stochastik für
InformatikerInnen
wobei
Wolfgang Kössler
Fi (z) :=
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
z ν fi (ν).
ν=1
Die Fkt. Fi (z) und Pi (z) sind analytisch für |z| < 1.
Fi (z)
Pi (z)
, Pi (z) =
Fi (z) =
1 + Pi (z)
1 − Fi (z)
∞
X
lim Fi (z) = Fi (1) = Fi =
fi (ν)
z→1
ν=1
ist die Wkt. für eine Rückkehr nach i. Sei
∞
X
lim Pi (z) = Pi =
pii (n) = ∞
z→1
10.Transformation
∞
X
n=1
819 / 895
Beweis des Satzes (4)
Stochastik für
InformatikerInnen
Wolfgang Kössler
Daraus folgt
Pi (z)
= 1,
z→1 1 + Pi (z)
1. Grundbegriffe
Fi = lim
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
d.h. i ist rekurrent.
Sei umgekehrt Fi = 1. Dann folgt
5. Zufallsvariablen
6. Diskrete ZV
Pi = lim Pi (z) =
z→1
7. Charakteristika
8. Exponential
9. Normal
1
1 − limz→1 Fi (z)
= ∞.
Der zweite Teil des Satzes ist die Kontraposition des
ersten Teils.
10.Transformation
820 / 895
Transiente und rekurrente Zustände
Stochastik für
InformatikerInnen
Wolfgang Kössler
Folgerung
Sei i transient. dann
1. Grundbegriffe
2. Kombinatorik
Fi =
Pi
< 1.
1 + Pi
3. Bedingte Wkt
4. Klass. Wkt.
Diese beiden Aussagen können zum Beweis des
5. Zufallsvariablen
folgenden Lemmas verwendet werden.
6. Diskrete ZV
Lemma
Ist ein Zustand i rekurrent (transient) und
7. Charakteristika
8. Exponential
kommuniziert er mit einem Zustand j (i ←→ j), so ist
9. Normal
10.Transformation
auch der Zustand j rekurrent (transient).
821 / 895
Rekurrente Zustände
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
Beweis: 1. Sei i ←→ j. Dann existieren m, k > 0:
pij (k) > 0 und pji (m) > 0. Für alle n ∈ N gilt:
X X
pjj (m + n + k) =
pjk 0 (m)pk 0 l (n) plj (k)
l
3. Bedingte Wkt
=
4. Klass. Wkt.
X
k0
pjl (m + n)plj (k)
l
5. Zufallsvariablen
≥ pji (m)pii (n)pij (k)
(l = i).
6. Diskrete ZV
7. Charakteristika
8. Exponential
Daraus folgt (da i rekurrent)
∞
X
9. Normal
n=1
pjj (m + n + k) ≥ pji (m)pij (k)
∞
X
pii (n) = ∞.
n=1
10.Transformation
822 / 895
Beweis des Satzes (2)
Stochastik für
InformatikerInnen
Wolfgang Kössler
2. Sei i ←→ j. und i transient. Ang, j wäre rekurrent,
1. Grundbegriffe
dann wäre nach 1. auch i rekurrent. Wid.
2. Kombinatorik
3. Bedingte Wkt
Folgerung
Eine irreduzible M ARKOV’sche Kette mit endlich
4. Klass. Wkt.
5. Zufallsvariablen
vielen Zuständen hat nur rekurrente Zustände.
6. Diskrete ZV
Beweis: Mindestens ein Zustand muß rekurrent
7. Charakteristika
sein. Da alle Zustände miteinander kommunizieren,
8. Exponential
sind alle Zustände rekurrent.
2
9. Normal
10.Transformation
823 / 895
Beispiel
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Random Walk, eindimensionaler Fall
Der Zustandsraum ist S = Z. Die
Übergangswahrscheinlichkeiten sind
2. Kombinatorik
3. Bedingte Wkt
pi,i+1 := p
4. Klass. Wkt.
pi,i−1 := 1 − p
5. Zufallsvariablen
pij := 0,
6. Diskrete ZV
falls |i − j| =
6 1.
7. Charakteristika
D.h. Übergänge zwischen Zuständen, die einen
8. Exponential
Abstand ungleich Eins zueinander haben, sind nicht
9. Normal
möglich. Die Übergangsmatrix M hat folgende
10.Transformation
Gestalt:
824 / 895
Random Walk, Fortsetzung
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV








M=






7. Charakteristika
8. Exponential
9. Normal
...
...
..
.
0
... 1 − p
..
.
..
.
..
.
p
0
0 ...
0
p
0 ...
0
p ...
...
0
1−p
...
0
..
.
0
..
.
1 − p 0 ...
..
.. . .
.
.
.








.






Offenbar kommunizieren alle Zustände miteinander.
Ist somit ein Zustand rekurrent, so sind es alle. Und
10.Transformation
umgekehrt.
825 / 895
Random Walk, Fortsetzung, 2
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
Es genügt also zu untersuchen:
3. Bedingte Wkt
∞
X
4. Klass. Wkt.
n=1
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
p00 (n).
Dazu siehe den Abschnitt Irrfahrten!
P∞
1
n=1 p00 (n) = ∞, wenn p = 2 .
8. Exponential
9. Normal
10.Transformation
826 / 895
Random Walk, Fortsetzung, 3
Stochastik für
InformatikerInnen
Wolfgang Kössler
Random Walk, zwei- und dreidimensionaler Fall
Im zweidimensionalen Fall haben wir in jedem
1. Grundbegriffe
Zustand vier mögliche Übergänge, denen die
2. Kombinatorik
Wahrscheinlichkeiten p1 , p2 , p3 und p4 zugeordnet
3. Bedingte Wkt
werden. Die Zustände sind rekurrent, wenn
4. Klass. Wkt.
5. Zufallsvariablen
p1 = p2 = p3 = p4 =
1
4
gilt.
Im dreidimensionalen Fall sind in jedem Punkt im
6. Diskrete ZV
7. Charakteristika
dreidimensionalen ganzzahligen Gitter sechs
8. Exponential
Übergänge möglich. Auch wenn p1 = . . . = p6 = 61 ,
9. Normal
so sind alle Zustände transient.
10.Transformation
Dazu siehe den Abschnitt Irrfahrten!
827 / 895
Transiente Zustände
Stochastik für
InformatikerInnen
Wolfgang Kössler
Sei jetzt der Zustand i Startzustand (fest) und
1. Grundbegriffe
Y1 = # Schritte bis zur ersten Rückkehr nach i
2. Kombinatorik
Y2 = # Schritte bis zur zweiten Rückkehr
3. Bedingte Wkt
Yk = # Schritte bis zur k-ten Rückkehr
4. Klass. Wkt.
5. Zufallsvariablen
P(Y1 < ∞) = Fi
6. Diskrete ZV
7. Charakteristika
8. Exponential
Y1 = ∞ =⇒ Y2 = ∞, d.h. {Y1 = ∞} ⊆ {Y2 = ∞}
=⇒ P(Y2 < ∞|Y1 < ∞) = Fi
9. Normal
10.Transformation
828 / 895
Transiente Zustände
Stochastik für
InformatikerInnen
Wolfgang Kössler
P(Y2 < ∞) = P(Y2 < ∞|Y1 < ∞) · P(Y1 < ∞)
= Fi2
1. Grundbegriffe
2. Kombinatorik
P(Yk < ∞) = Fik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
Sei jetzt Fi < 1. =⇒
∞
∞
X
X
Fi < 1 =⇒
P(Yk < ∞) =
Fik < ∞
6. Diskrete ZV
k =1
k =1
7. Charakteristika
8. Exponential
Folgerung
9. Normal
i transient =⇒ nach unendlich vielen Schritten tritt i
10.Transformation
höchstens endlich oft mit Wkt. 1 ein.
829 / 895
Transiente Zustände
Stochastik für
InformatikerInnen
Wolfgang Kössler
Beweis:
∞
X
1. Grundbegriffe
Nach dem Lemma von Borel-Cantelli gilt
P(Ak ) < ∞ =⇒ P(lim sup An ) = 0.
k=1
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
Mit Ak = {Yk < ∞},
Bn =
S
k ≥n
Ak ↓ folgt
0 = P(lim sup An ) = P(lim Bn ) = lim P(Bn ) = P(B)
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
B = {unendlich viele der Ak , k = 1, 2, . . . , treten ein}
B = {endlich viele der Ak , k = 1, 2, . . . , treten ein}
8. Exponential
9. Normal
10.Transformation
P(B) = 1
2
830 / 895
Rekurrente Zustände
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
Folgerung
Sei jetzt i rekurrent, d.h. Fi = 1. =⇒ i wird unendlich
oft erreicht.
Für beliebiges k gilt: P(Yk < ∞) = 1.
3. Bedingte Wkt
Beweis:
4. Klass. Wkt.
Y = # der Rückkehren nach i bei unendlich vielen
5. Zufallsvariablen
Schritten.
6. Diskrete ZV
7. Charakteristika
8. Exponential
{Yk < ∞} ⇔ {Y ≥ k}
P(Y = ∞) = lim P(Y ≥ k) = lim P(Yk < ∞) = 1.
k →∞
9. Normal
10.Transformation
k →∞
2
831 / 895
Inhalt
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
17.1 Definitionen und einfache
Zusammenhänge
17.2 Klassifikation der Zustände
3. Bedingte Wkt
4. Klass. Wkt.
17.3 Rekurrente und transiente Zustände
5. Zufallsvariablen
17.4 Grenzverteilungen
6. Diskrete ZV
17.5 Klassische Beispiele
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
832 / 895
17.4 Grenzverteilungen
Stochastik für
InformatikerInnen
Wolfgang Kössler
Def. (Periode)
Ein Zustand i heißt periodisch mit der Periode d,
1. Grundbegriffe
falls d größter gemeinsamer Teiler aller der Zahlen
2. Kombinatorik
n ∈ Z+ ist, für die pii (n) > 0 gilt. Ist d = 1, so heißt
3. Bedingte Wkt
der Zustand i aperiodisch. Falls für alle Zahlen
4. Klass. Wkt.
n ∈ Z+ pii (n) = 0 gilt, so setzen wir d := ∞.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
Satz
Es sei i ∈ S ein periodischer Zustand mit Periode d.
8. Exponential
Desweiteren kommuniziere er mit einem weiteren
9. Normal
Zustand j (i ←→ j). Dann hat auch der Zustand j die
10.Transformation
Periode d.
833 / 895
Beweis des Satzes (1)
Stochastik für
InformatikerInnen
Sei i periodischer Zustand mit Periode d. Dann
Wolfgang Kössler
lassen sich alle Zahlen k mit pii (k) > 0 durch
1. Grundbegriffe
k = k0 · d, für eine Zahl k0 , darstellen. Da die
2. Kombinatorik
Zustände i und j miteinander kommunizieren,
3. Bedingte Wkt
existieren weitere Zahlen n und m, so daß gilt:
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
pij (n) > 0 und pji (m) > 0.
Nach C HAPMAN –KOLMOGOROV:
X
pii (n + m) =
pil (n) · pli (m)
l∈S
≥ pij (n) · pji (m) > 0
834 / 895
Beweis des Satzes (2)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
Folglich ist d Teiler der Summe n + m.
Es gelte nun pjj (r ) > 0 für ein gewisses r . Dann gilt:
X
pil (n) · pls (r ) · psi (m)
pii (n + m + r ) =
l,s∈S
3. Bedingte Wkt
≥ pij (n) · pjj (r ) · pji (m)
4. Klass. Wkt.
> 0
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
Wir stellen also fest:

d teilt m + n + r 
⇒ d teilt r .
d teilt m + n 
10.Transformation
835 / 895
Beweis des Satzes (3)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
Folglich ist der Zustand j periodisch mit Periode d 0 ,
wobei gilt: d ≤ d 0 .
Da die Relation ←→“ symmetrisch ist, gilt auch:
”
j ←→ i. Mit der gleichen Beweisführung wie oben
5. Zufallsvariablen
können wir dann zeigen, daß gilt: d 0 ≤ d. Daraus
6. Diskrete ZV
folgt: Die Zustände i und j haben die gleiche
7. Charakteristika
Periodenlänge.
8. Exponential
9. Normal
10.Transformation
836 / 895
Mittlere Rückkehrzeit (1)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
Es sei nun i ∈ S ein rekurrenter Zustand. Wir
betrachten die folgende Zufallsgröße:


1
2 ... n ...
.
Y :
fi (1) fi (2) . . . fi (n) . . .
mittlere Rückkehrzeit in den Zustand i
5. Zufallsvariablen
6. Diskrete ZV
µi :=
∞
X
n · fi (n) = EY .
n=1
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
Def. (Nullrekurrenz, posive Rekurrenz)
Der Zustand i heißt positiv rekurrent, falls µi < ∞. Ist
µi = ∞, so nennen wir den Zustand i Null–rekurrent.
837 / 895
Mittlere Rückkehrzeit (2)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Es gilt für einen beliebigen Zustand i (ohne Beweis):
µi < ∞ genau dann, wenn lim pii (n) > 0;
n→∞
µi = ∞ genau dann, wenn lim pii (n) = 0.
n→∞
2. Kombinatorik
Ist der Zustand i positiv rekurrent und
3. Bedingte Wkt
aperiodisch, so gilt:
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
µi =
1
.
lim pii (n)
n→∞
Def. (Ergodische Markov-Kette)
Eine M ARKOV-Kette {Xt }t∈T heißt ergodisch, falls der
Zustandsraum S nur aus positiv–rekurrenten und
aperiodischen Zuständen besteht.
838 / 895
Ergodensatz
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
Ergodensatz
Eine homogene M ARKOV-Kette {Xt }t∈T ist genau
dann irreduzibel und ergodisch, wenn für alle
Zustände i ∈ S gilt:
3. Bedingte Wkt
4. Klass. Wkt.
pj := lim pij (n) > 0.
n→∞
5. Zufallsvariablen
6. Diskrete ZV
Außerdem gilt µj =
7. Charakteristika
durch:
1
pj
und {pj } ist eindeutig bestimmt
8. Exponential
9. Normal
pj =
∞
X
pi · pij .
i=1
10.Transformation
839 / 895
Stationäre Verteilung
Stochastik für
InformatikerInnen
Stationäre Verteilung
Wolfgang Kössler
Die Grenzverteilung {pi } heißt stationäre oder
1. Grundbegriffe
Finalverteilung. Die stationäre Verteilung kann also
2. Kombinatorik
nach obiger Gleichung ermittelt werden.




p1
p1








 p2 
 p2 




 . 
 . 
T
 . 
. 
p=
 .  = M ·  . .








 pj 
 pj 




..
..
.
.
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
840 / 895
Stationäre Verteilung (2)
Stochastik für
InformatikerInnen
Also gilt: MT · p = p = λ · p mit λ = 1.
Wolfgang Kössler
Eigenwertgleichung für den Eigenwert 1. Der Vektor
1. Grundbegriffe
p ist Eigenvektor von MT zum Eigenwert 1.
2. Kombinatorik
3. Bedingte Wkt
Bem.: M und MT haben dieselben Eigenwerte.
4. Klass. Wkt.
Folgerung
5. Zufallsvariablen
Sei M die Übergangsmatrix einer M ARKOV’schen
6. Diskrete ZV
7. Charakteristika
Kette mit endlich vielen Zuständen (in der Form, in
der die Äquivalenzklassen ablesbar sind) Dann gilt:
8. Exponential
9. Normal
10.Transformation
Die Vielfachheit des Eigenwertes 1 ist gleich der
Anzahl der rekurrenten Äquivalenzklassen.
841 / 895
Stationäre Verteilung, Beispiel
Stochastik für
InformatikerInnen
Beweis: Jede Teilübergangsmatrix von
Wolfgang Kössler
Äquivalenzklassen hat den einfachen Eigenwert 1
1. Grundbegriffe
(Finalverteilung eindeutig!)
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
2
Wir betrachten eine M ARKOV’sche Kette über
S = {1, 2, 3} mitÜbergangsmatrix


1
1
 2 2 0 


3
1

M=
 4 4 0 .


0 0 1
9. Normal
10.Transformation
Äquivalenzklassen: {1, 2}, {3}.
842 / 895
Stationäre Verteilung, Beispiel
(Fortsetzung)
Stochastik für
InformatikerInnen
Wolfgang Kössler
Wir ermitteln die Eigenwerte:
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
0 = det(M − λ · I)
1
1
−λ
0
2
2
1
= 34
−
λ
0
4
0
1−λ 0
= (1 − λ) · 12 − λ · 41 − λ − 38
9. Normal
10.Transformation
843 / 895
Stationäre Verteilung, Beispiel
(Fortsetz.,2 )
Stochastik für
InformatikerInnen
Der erste Eigenwert: λ1 = 1. Weiter:
Wolfgang Kössler
1. Grundbegriffe
0 =
3. Bedingte Wkt
4. Klass. Wkt.
λ2,3
5. Zufallsvariablen
6. Diskrete ZV
1
8
3
=
8
3
=
8
=
2. Kombinatorik
λ2
1
2
− λ · 14 − λ − 38
3
3
3
1
− λ + λ2 − = λ2 − λ −
4
8
4
r
r4
9
25
16
3
±
+
= ±
64 64
8
64
5
1
+ =1
λ3 = −
8
4
7. Charakteristika
8. Exponential
Also: Eigenwerte: λ1 = λ2 = 1 und λ3 = − 14 . Der
9. Normal
Eigenwert 1 hat folglich die Häufigkeit 2, und somit
10.Transformation
gibt es zwei rekurrente Äquivalenzklassen.
844 / 895
Stationäre Verteilung uniform?
Stochastik für
Folgerung: Falls
InformatikerInnen
X
Wolfgang Kössler
X
pij = 1
j
i
1. Grundbegriffe
pij =
2. Kombinatorik
so sind die stationären Verteilungen einer endlichen
3. Bedingte Wkt
irreduziblen Markoffschen Kette Gleichverteilungen.
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
Beweis: Es gilt für die stationäre Verteilung
X
X
(p1 , . . . , pn )
pi pij = pj = pj
pij
i
7. Charakteristika
X
8. Exponential
(pi − pj )pij = 0,
∀j
i
insbesondere
i
9. Normal
X
10.Transformation
i
(pi − pj0 )pij0 = 0,
j0 = min pj
j
845 / 895
Stationäre Verteilung uniform?
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
Folgerung
3. Bedingte Wkt
Ist die Übergangsmatrix einer endlichen irreduziblen
4. Klass. Wkt.
Markovschen Kette symmetrisch so sind die
5. Zufallsvariablen
stationären Verteilungen Gleichverteilungen.
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
846 / 895
Ergodensatz
Veranschaulichung von lim pjj (n) = pj =
1
µj
Stochastik für
InformatikerInnen
Wolfgang Kössler
pj : Rückkehrwahrscheinlichkeit in den Zustand j.
1. Grundbegriffe
µj : Erwartete Anzahl der Schritte bis zur Rückkehr
2. Kombinatorik
3. Bedingte Wkt
nach j
Y : Anzahl der Schritte bis zur Rückkehr nach j,
4. Klass. Wkt.
5. Zufallsvariablen
Y ∼ Geo(pj )
6. Diskrete ZV
7. Charakteristika
8. Exponential
µj = EY =
1
pj
9. Normal
10.Transformation
847 / 895
Ergodensatz, Beispiel
Stochastik für
InformatikerInnen
Wolfgang Kössler
Ein-Prozessorsystem mit mehreren E/A-Einheiten.
Ein Programm, das sich in der CPU befindet, geht
1. Grundbegriffe
mit Wkt. qi in die I/O-Einheit i über, oder endet (mit
2. Kombinatorik
Wkt. q0 ) und macht Platz für ein neues Programm in
3. Bedingte Wkt
der CPU.
4. Klass. Wkt.

5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
M=

q0 q1 . . . qm 


1 0 ... 0 




 ..





1 0 ... 0
10.Transformation
848 / 895
Ergodensatz, Beispiel (2)
Stochastik für
InformatikerInnen
Wolfgang Kössler
Ein-Prozessorsystem (Fortsetzung)
1. Grundbegriffe

2
q0
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
M2 = M2 =







+
Pm
i=1
q0
..
q0

qi q0 q1 . . . q0 qm 

q1 . . . qm 





q1 . . . qm
7. Charakteristika
8. Exponential
also pij (2) > 0 ∀i, j =⇒ {Xt } irreduzibel.
9. Normal
10.Transformation
849 / 895
Ein-Prozessorsystem
Stationäre Verteilung
Stochastik für
InformatikerInnen
Wolfgang Kössler
Ein-Prozessorsystem (Fortsetzung, 2)
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika

Pm



π0 q0 + i=1 πi   π0 

  
  π1 

π
q
0
1

  
(π0 , π1 , . . . , πm ) · M = 
= 
  .. 

..
  

  

πm
π0 qm
8. Exponential
9. Normal
10.Transformation
850 / 895
Ein-Prozessorsystem
Stationäre Verteilung
Stochastik für
InformatikerInnen
Wolfgang Kössler
q0 π0 + 1 − π0 = π0
2π0 − q0 π0 = 1
1. Grundbegriffe
2. Kombinatorik
π0 (2 − q0 ) = 1
3. Bedingte Wkt
π0 =
4. Klass. Wkt.
1
2 − q0
5. Zufallsvariablen
πi = π0 qi =
6. Diskrete ZV
qi
,
2 − q0
i = 1, . . . , m
7. Charakteristika
8. Exponential
m
X
9. Normal
i=0
m
X qi
1
1 − q0
1
πi =
+
=
+
= 1.
2 − q0
2 − q0
2 − q0 2 − q0
i=1
10.Transformation
851 / 895
Multiprozessorsystem
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
Multiprozessorsystem
Ein “Job” (oder ein Prozessor) greift zufällig auf
bestimmte Speichermodule zu.
Er wird bedient, wenn der angeforderte
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
Speichermodul frei ist, sonst muß er warten.
Die Zeit für einen Speicherzugriff sei konstant und
für alle Speichermodule gleich.
Neue Anforderungen beginnen sofort nach
Abarbeitung der alten.
m “Jobs”, n Speichermodule.
10.Transformation
852 / 895
Multiprozessorsystem
Stochastik für
InformatikerInnen
Wolfgang Kössler
Multiprozessorsystem (2)
Ni : Anzahl der “Jobs” (Wartenden) am
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
Speichermodul Mi (Bedienplätze) (wartend oder
in Arbeit), i = 1, . . . , n
4. Klass. Wkt.
Zustandsraum
5. Zufallsvariablen
S = {(N1 , N2 , . . . , Nn ) ∈ Z+ :
P
i
Ni = m}
6. Diskrete ZV
7. Charakteristika
Bsp.: m = n = 2: S = {(1, 1), (0, 2), (2, 0)}
8. Exponential
q1 : Wkt., 1. Speichermodul wird angefordert
9. Normal
q2 : Wkt., 2. Speichermodul wird angefordert
10.Transformation
853 / 895
Multiprozessorsystem (3)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
Übergangsmatrix


2
2
2q1 q2 q2 q1 



M=
q
q
0
2
 1



q2
0 q1
Stationäre Verteilung
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
πM

 = π
2
2
2q1 q2 q2 q1 


(π1 , π2 , π3 ) 
q2 0 
 q1
 = (π1 , π2 , π3 )


q2
0 q1
854 / 895
Multiprozessorsystem (4)
Stationäre Verteilung (Fortsetz.)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
π1 · 2q1 q2 + π2 q1 + π3 q2 = π1
π1 · q22 + π2 · q2 + π3 · 0 = π2
π1 · q12 + π2 · 0 + π3 · q1 = π3
π1 + π2 + π3 = 1
4. Klass. Wkt.
5. Zufallsvariablen
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
π1 · q22 = π2 (1 − q2 )
π1 · q12 = π3 (1 − q1 )
1
π1 =
q12
1 + 1−q1 +
q22
· π1
1 − q2
q12
π3 =
· π1
q1 q1
2 − q1
=
1 − 2q1 q2
π2 =
6. Diskrete ZV
q22
1−q2
855 / 895
Multiprozessorsystem (5)
Stochastik für
InformatikerInnen
Wolfgang Kössler
X : # erledigten Speicherplatz-Anforderungen pro
Zyklus im stationären Zustand:
1. Grundbegriffe
E(X |(1, 1)) = 2
2. Kombinatorik
3. Bedingte Wkt
E(X |(2, 0)) = 1
4. Klass. Wkt.
E(X |(0, 2)) = 1
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
EX = 2 · π1 + 1 · π2 + 1 · π3
q12
q22 1 − q1 q2
= 2+
+
π1 =
1 − q1 1 − q2
1 − 2q1 q2
q1 = q2 = 21 :
EX = 32 .
maximal möglicher Wert.
856 / 895
Betriebssystem
in verschiedenen Zuständen
Stochastik für
Das Betriebssystem schalte zwischen den Zuständen:
InformatikerInnen
Wolfgang Kössler
1:
Benutzerprogramm aktiv
1. Grundbegriffe
2:
Scheduler aktiv
3:
Operatorkommunikation aktiv
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
4:
Nullprozess

0.90 0.04


0.94 0.00

M=

0.85 0.10

0.75 0.00
0.05
0.05
0.04
0.05

0.01


0.01



0.01

0.20
π ist stationäre Verteilung. (ÜA)


0.897




0.041


π=



 0.05 


0.012
857 / 895
Inhalt
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
17.1 Definitionen und einfache
Zusammenhänge
17.2 Klassifikation der Zustände
3. Bedingte Wkt
4. Klass. Wkt.
17.3 Rekurrente und transiente Zustände
5. Zufallsvariablen
17.4 Grenzverteilungen
6. Diskrete ZV
17.5 Klassische Beispiele
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
858 / 895
17.5 Klassische Beispiele
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
Ruin des Spielers
Zwei Spieler werfen abwechselnd eine (nicht
manipulierte) Münze. Fällt Kopf, so erhält Spieler A
den vereinbarten Einsatz (1 Euro) von Spieler B,
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
anderenfalls erhält Spieler B denselben Einsatz von
Spieler A. Zu Beginn des Spieles besitzt A a Euro
7. Charakteristika
und B b Euro. Das Spiel wird solange fortgesetzt, bis
8. Exponential
einer der beiden Spieler kein Geld mehr besitzt.
9. Normal
10.Transformation
859 / 895
Ruin des Spielers (Fortsetzung)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
Zustände: S = {0, 1, . . . , N},

1 0 0 0 ···

1
 2 0 12 0 · · ·


0 1 0 1 · · ·

2
2
M=
..



0 0 0 0 · · ·

0 0 0 0 ···
N = a + b.
0
0
0
0
0
···
0



· · · 0


· · · 0





1
1

0
2
2
··· 1
8. Exponential
9. Normal
Frage: Wie groß ist die Wahrscheinlichkeit des Ruins
10.Transformation
von Spieler A bzw. B?
860 / 895
Ruin des Spielers (Fortsetzung, 2)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
Sei Ei das Ereignis, daß ein Spieler, der genau i
Euro besitzt, ruiniert wird und sei pi = P(Ei ).
1.
2. Kombinatorik
1
2
und offenbar ist p0 = 1 und pN = 0.
pi,i+1 = pi,i−1 =
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
Die Übergangswktn. sind
2.
Satz der totalen Wkt.: Es gilt für alle
i, i = 0, . . . , N:
pi = P(Ei ) = P(Ei |Übergang nach i-1) · pi,i−1 +
P(Ei | Übergang nach i+1) · pi,i−1
861 / 895
Ruin des Spielers (Fortsetzung, 3)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
1
1
pi−1 + pi+1
2
2
= pi+1 − pi =: d
pi − pi−1
pi − p0 = pi − pi−1 + pi−1 − pi−2 +pi−2 − + · · · − p1
| {z } | {z }
=d
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
2pi = pi−1 + pi+1
pi =
=d
+ p1 − p0
| {z }
=d
pi − 1 = i · d
pi = 1 + i · d,
insbesondere
8. Exponential
9. Normal
10.Transformation
pN = 1 + N · d
1
d = − , N =a+b
N
862 / 895
Ruin des Spielers (Fortsetzung, 4)
Stochastik für
InformatikerInnen
3.
a+b−i
1
=
a+b
a+b
b
a
pa =
, pb =
a+b
a+b
Wolfgang Kössler
pi = 1 − i ·
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
4.
a = b : pa = pb =
1
2
a >> b : pa ≈ 0, pb ≈ 1.
6. Diskrete ZV
7. Charakteristika
3 Klassen von Zuständen:
8. Exponential
T = {1, . . . , N − 1}: transiente Zustände
9. Normal
S1 = {0}, S2 = {N}: absorbierende Zustände
10.Transformation
T c := S1 ∪ S2
863 / 895
Ruin des Spielers (Fortsetzung, 5)
Stochastik für
InformatikerInnen
Wolfgang Kössler
Umordnung von M:
1. Grundbegriffe


2. Kombinatorik
M∗ = 

Q R
0 P
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
Q = (pij ; i, j ∈ T }
P = (pij ; i, j ∈ T c }
6. Diskrete ZV
R = (pik ; i ∈ T , k ∈ T c }
7. Charakteristika
Übergang von i ∈ T nach k ∈ T c einschrittig oder
8. Exponential
nach Übergängen innerhalb von T und
9. Normal
anschließendem Übergang von T nach k.
10.Transformation
864 / 895
Ruin des Spielers (Fortsetzung, 6)
Stochastik für
InformatikerInnen
Wolfgang Kössler
uik : Wkt. von i ∈ T (irgendwann) nach k ∈ T c zu
kommen
1. Grundbegriffe
uik =
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
X
Qij ujk + pik ,
Qij = pij
j∈T
U = Uik
i∈T ,k ∈T c
5. Zufallsvariablen
U = QU + R,
6. Diskrete ZV
U = (I − Q)−1 R
Rekursionsformel
7. Charakteristika
8. Exponential
Die Matrix (I − Q)−1 existiert, falls T endlich!
9. Normal
Lit.: Resnick, S.I. Adventures in Stochastic
10.Transformation
Processes, Birkhäuser 1992.
865 / 895
Ruin des Spielers (Fortsetzung, 7)
Stochastik für
InformatikerInnen
Wolfgang Kössler
hier:
(I − Q)U = R
1. Grundbegriffe
2. Kombinatorik

3. Bedingte Wkt

 1
−
 2

 0


 ..





4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
1
− 12
0
···
0
1
− 21
···
0
− 21
1
···
0
− 12
1
0
− 21
0

u10



0 
  u20


0 
  u30

  ..



− 21  uN−2,0

uN−1,0
1
u1N


1
2

 

u2N 
 0
 

u3N 
 0
=
  ..
 
 
 
uN−2,N   0
 
uN−1,N
0
0



0


0






0

1
2
9. Normal
10.Transformation
866 / 895
Ruin des Spielers (Fortsetzung, 8)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
u1,0
− 12 u2,0
− 12 u1,0
+u2,0
− 12 u3,0
− 21 u2,0
+u3,0
=
1
2
= 0
− 12 u4,0
= 0
+uN−2,0
− 12 uN−1,0 = 0
− 12 uN−2,0
+uN−1,0
..
6. Diskrete ZV
7. Charakteristika
8. Exponential
− 12 uN−3,0
= 0
9. Normal
10.Transformation
867 / 895
Ruin des Spielers (Fortsetzung, 9)
Stochastik für
InformatikerInnen
N − 1. Gleichung (1. U-Spalte)
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
uN−1,0 =
1
uN−2,0
2
N − 2. Gleichung (1. U-Spalte)
1
1
− uN−3,0 + uN−2,0 − uN−1,0 = 0
2
2
1
1
uN−2,0 − uN−2,0 =
uN−3,0
4
2
3
1
uN−2,0 =
uN−3,0
4
2
2
uN−2,0 =
uN−3,0
3
868 / 895
Ruin des Spielers (Fortsetzung, 10)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
N − 3. Gleichung (1. U-Spalte)
1
1
− uN−4,0 + uN−3,0 − uN−2,0 = 0
2
2
1
1
uN−4,0
uN−3,0 − uN−3,0 =
3
2
2
1
uN−3,0 =
uN−4,0
3
2
3
uN−3,0 =
uN−4,0
4
N − i. Gleichung (1. U-Spalte)
8. Exponential
9. Normal
10.Transformation
uN−i,0 =
i
uN−(i+1),0 ,
i +1
i = 1, . . . , N − 2
869 / 895
Ruin des Spielers (Fortsetzung, 11)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
1. Gleichung:
1
1
u1,0 − u2,0 =
2
2
2. Kombinatorik
3. Bedingte Wkt
Da
4. Klass. Wkt.
5. Zufallsvariablen
u2,0 = uN−(N−2),0 =
6. Diskrete ZV
7. Charakteristika
N −2
N −2
uN−(N−1),0 =
u1,0
N −1
N −1
folgt
8. Exponential
9. Normal
10.Transformation
870 / 895
Ruin des Spielers (Fortsetzung, 12)
Stochastik für
InformatikerInnen
1N −2
1
u1,0 =
2N −1
2
1
N −2
=
u1,0 (1 −
2(N − 1)
2
1
N
=
u1,0
2(N − 1)
2
Wolfgang Kössler
u1,0 −
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
u2,0
9. Normal
10.Transformation
N −1
1
=1−
N
N
N −2
N −2 N −1
N −2
2
=
u1,0 =
·
=
=1−
N −1
N −1
N
N
N
i
N −i
= 1 − , i = 1, 2, . . . , N − 1.
=
N
N
871 / 895
u1,0 =
uN−i,0
Irrfahrten
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
Irrfahrt auf der Geraden
Zustände: k ∈ Z, Anfangszustand: 0
Bewegung: ein Schritt nach rechts mit Wkt. p oder
nach links mit Wkt. q = 1 − p
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
pk ,k +1 = p = 1 − pk ,k −1 ;
pij = 0, falls|i − j| =
6 1


.
.
.
.






0 q 0 p 0


M=



0
q
0
p
0




. . .
872 / 895
Irrfahrten, Fortsetzung, 1
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
An,k : Ereignis, nach n Schritten im Zustand k zu sein
Dn,k := P(An,k )
Satz der totalen Wkt.:
Dn,k = P(An,k )
= P(An,k |An−1,k −1 ) · P(An−1,k−1 ) +
P(An,k |An−1,k +1 ) · P(An−1,k+1 )
6. Diskrete ZV
7. Charakteristika
Ωn−1 = An−1,k −1 ∪ An−1,k +1
= pDn−1,k −1 + qDn−1,k +1
8. Exponential
9. Normal
k = −n, . . . , n
10.Transformation
873 / 895
Irrfahrten, Fortsetzung, 2
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
Explizite Formel:

n+k n−k
n
 n+k
p 2 q 2
2
Dn,k =
0
falls k = −n, −n + 2, . . . , n
sonst
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
874 / 895
Irrfahrten, Fortsetzung, 3
Stochastik für
InformatikerInnen
In den Zustand k gelangt man in genau n Schritten,
Wolfgang Kössler
indem man
1. Grundbegriffe
links geht.
2. Kombinatorik
Es gibt genau
3. Bedingte Wkt
n+k
2
mal nach rechts und
n
n+k
2
n−k
2
mal nach
Möglichkeiten die Zeitpunkte für
einen Schritt nach rechts auszuwählen.
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
Insbesondere
D2n,0 =
2n n n
p q .
n
Abschätzung: Stirling’sche Formel
√
n n 1
e 12n .
n! ∼ 2πn
e
10.Transformation
875 / 895
Irrfahrten, Fortsetzung, 4
Stochastik für
InformatikerInnen
Wolfgang Kössler
Damit
1. Grundbegriffe
2n
n
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
(2n)!
n!n!
√
2n
1
2π2n 2n
e 12·2n
e
∼ √
n 2
1 2
2πn en
(e 12n
3
1
= √ 22n e− 4n
πn
=
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
p=q=
1
:
2
p 6= q :
3
1
D2n,0 ∼ √ e− 4n
πn
3
1
D2n,0 ∼ √ 4n pn (1 − p)n e− 4 n .
πn
876 / 895
Irrfahrten, Fortsetzung, 5
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
Mittlere Rückkehrhäufigkeit:
P
∞
 ∞ √1 = ∞
X
n=1 πn
D2n,0 ∼ P
n
 ∞ (4p(1−p))
√
<∞
n=1
n=1
πn
(p = 12 )
(p 6= 12 )
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
877 / 895
Irrfahrten, Fortsetzung, 6
Stochastik für
InformatikerInnen
Wolfgang Kössler
Der Zustand “0” (und die anderen Zustände auch) ist
1. Grundbegriffe
2. Kombinatorik
also
1
2
3. Bedingte Wkt
rekurrent,
falls p = q =
4. Klass. Wkt.
transient,
falls p 6= q
5. Zufallsvariablen
nullrekurrent, falls p = q =
1
2
da D2n,0 →n→∞ 0.
6. Diskrete ZV
7. Charakteristika
D2n,0 = p00 (n) → 0 ⇒ µi = ∞
8. Exponential
9. Normal
10.Transformation
878 / 895
Irrfahrten
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
symmetrische Irrfahrt in der Ebene
Zustände: (k, l) ∈ Z2 , Anfangszustand: (0, 0)
Bewegung: Punkt (X , Y )
X : ein Schritt nach rechts mit Wkt. p =
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
links mit Wkt. q =
1
2
oder nach
1
2
Y : ein Schritt nach oben mit Wkt. p oder nach unten
mit Wkt. q =
1
2
7. Charakteristika
Die Zufallsvariablen X und Y sind unabhängig.
8. Exponential
Bn,k : Ereignis, nach n Schritten im Zustand k zu sein
9. Normal
En,k := P(Bn,k )
10.Transformation
879 / 895
symmetrische Irrfahrt in der Ebene
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
1
2
E2n,0 = P(X2n,0 = 0 ∧ Y2n,0 = 0) = D2n,0
∼ ( √ )2
πn
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
∞
X
∞
E2n,0
n=1
1
π
1X1
=∞
∼
π
n
n=1
N
X
n=1
ln N
1
∼
→N→∞ ∞.
n
π
8. Exponential
9. Normal
Der Zustand “0” (und die anderen Zustände auch) ist
10.Transformation
also rekurrent,
falls p = q =
1
2
880 / 895
Irrfahrten
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
symmetrische Irrfahrt im Raum
Zustände: (j, k, l) ∈ Z3 , Anfangszustand: (0, 0, 0)
Bewegung: Punkt (X , Y , Z )
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
X : ein Schritt nach rechts mit Wkt. p =
1
2
oder nach
links mit Wkt. q = 1 − p
Y : ein Schritt nach oben mit Wkt. p oder nach unten
mit Wkt. q = 1 − p
Z : ein Schritt nach hinten mit Wkt. p oder nach vorn
mit Wkt. q = 1 − p
Die Zufallsvariablen X , Y und Z sind unabhängig.
10.Transformation
881 / 895
Irrfahrten im Raum
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
Cn,k : Ereignis, nach n Schritten im Zustand k.
Fn,k := P(Cn,k )
3
F2n,0 = P(X2n,0 = 0, Y2n,0 = 0, Z2n,0 = 0) = D2n,0
1
∼ ( √ )3
πn
∞
∞
X
1 X 1
F2n,0 ∼
<∞
(π)3/2
n3/2
n=0
n=0
8. Exponential
Der Zustand “0” (und die anderen Zustände auch) ist
9. Normal
also transient.
10.Transformation
882 / 895
Irrfahrten mit Barriere
Stochastik für
InformatikerInnen
Wolfgang Kössler
Irrfahrt auf der Geraden mit Barriere
Zustände: k ∈ N, Anfangszustand: 0
1. Grundbegriffe
Bewegung: ein Schritt nach rechts mit Wkt. p oder
2. Kombinatorik
nach links mit Wkt. q = 1 − p
3. Bedingte Wkt
von k = 0 aus geht es nur nach rechts
4. Klass. Wkt.
5. Zufallsvariablen
0 < p, q < 1.
Übergangswktn.:
6. Diskrete ZV
7. Charakteristika
pk ,k +1 = p = 1 − pk ,k −1
8. Exponential
9. Normal
10.Transformation
pij = 0,
falls |i − j| =
6 1
und k 6= 0
p01 = 1
883 / 895
Irrfahrt mit Barriere
Stochastik für
InformatikerInnen

Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen





M=





0 1 0 0




q 0 p 0



0 q 0 p 0



. . . 

. . .
6. Diskrete ZV
7. Charakteristika
alle Zustände transient, wenn p > q
8. Exponential
alle Zustände nullrekurrent, wenn p = q =
9. Normal
alle Zustände positiv rekurrent, falls q > p.
10.Transformation
Alle Zustände haben die Periode 2.
1
2
884 / 895
Irrfahrt mit Barriere
Stochastik für
InformatikerInnen
Die ersten beiden Fälle sind analog zur Irrfahrt ohne
Wolfgang Kössler
Barriere. Der dritte Fall erfordert etwas
1. Grundbegriffe
Rechenaufwand.
2. Kombinatorik
3. Bedingte Wkt
Stationäre Verteilung π im Fall p < q:
Sie ist (falls sie ex.) Lösung von
4. Klass. Wkt.
5. Zufallsvariablen
MT · π = π
6. Diskrete ZV
7. Charakteristika
8. Exponential
9. Normal
10.Transformation
π0 = qπ1
π1 = π0 + qπ2
πi = pπi−1 + qπi+1 ,
i ≥2
885 / 895
Irrfahrt mit Barriere
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
1=
2. Kombinatorik
∞
X
πj
j=1
3. Bedingte Wkt
4. Klass. Wkt.
Behauptung:
5. Zufallsvariablen
6. Diskrete ZV
πi =
pi−1
π0 ,
qi
i ≥1
7. Charakteristika
8. Exponential
Beweis: vollständige Induktion.
9. Normal
10.Transformation
886 / 895
Irrfahrt mit Barriere
Stationäre Verteilung
Stochastik für
InformatikerInnen
Wolfgang Kössler
1 =
1. Grundbegriffe
∞
X
πi = π0 +
i=0
2. Kombinatorik
3. Bedingte Wkt
= π0 +
4. Klass. Wkt.
5. Zufallsvariablen
= π0 +
6. Diskrete ZV
7. Charakteristika
10.Transformation
i=1
∞
1 X pi
q
i=0
qi
qi
π0
π0 = π0 +
1 1
π0
q 1 − qp
1
π0
q−p
π0 =
q−p
1
=
1
q−p+1
1 + q−p
πi =
pi−1
q−p
·
i
q
q−p+1
8. Exponential
9. Normal
∞
X
pi−1
887 / 895
18. Zusammenfassung
Grundlagen
Stochastik für
InformatikerInnen
Wahrscheinlichkeitsbegriff
Wolfgang Kössler
Rechnen mit Wahrscheinlichkeiten
1. Grundbegriffe
Einfache kombinatorische Formeln
2. Kombinatorik
3. Bedingte Wkt
Stirling-Formel
4. Klass. Wkt.
Bedingte Wahrscheinlichkeiten, Unabhängigkeit
5. Zufallsvariablen
Satz der Totalen Wahrscheinlichkeit
6. Diskrete ZV
Satz von Bayes
7. Charakteristika
Verteilungsfunktion, Eigenschaften
8. Exponential
9. Normal
10.Transformation
Erwartungwert, Varianz, Rechnen mit
Erwartungwert, Varianz
888 / 895
Zusammenfassung (2)
Wahrscheinlichkeitsmodelle und Transformationen
Stochastik für
InformatikerInnen
Diskrete Gleichverteilung
Wolfgang Kössler
Binomialverteilung
1. Grundbegriffe
Poisson-Verteilung
2. Kombinatorik
3. Bedingte Wkt
Geometrische Verteilung
4. Klass. Wkt.
Gleichverteilung
5. Zufallsvariablen
Exponentialverteilung, Anwendungen
6. Diskrete ZV
Normalverteilung, Eigenschaften
7. Charakteristika
Transformationssatz für eindimensionale
8. Exponential
9. Normal
10.Transformation
Zufallsvariablen
Faltungsformel
889 / 895
Zusammenfassung (3)
Mehrdimensionale Verteilungen und Grenzwertsätze
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
2. Kombinatorik
Zweidimensionale Zufallsvariablen
Unabhängigkeit und Korrelation, Berechnung
von Korrelationskoeffizienten für diskrete und für
stetige Zufallsvariablen
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
Markov-Ungleichung,
Tschebyschev-Ungleichung,
6. Diskrete ZV
Jensen-Ungleichung
7. Charakteristika
Gesetz der Großen Zahlen
8. Exponential
Empirische Verteilungsfunktion
9. Normal
Satz von Glivenko-Cantelli
10.Transformation
Zentraler Grenzwertsatz
890 / 895
Zusammenfassung (4)
Schätzmethoden und Zufallszahlen
Stochastik für
InformatikerInnen
Wolfgang Kössler
Schätzmethoden (Momentenschätzung,
1. Grundbegriffe
2. Kombinatorik
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
Maximum-Likelihood-Methode)
Erzeugung und Eigenschaften von Zufallszahlen
Statistische Tests von Zufallszahlen
Methoden zur Erzeugung spezieller
6. Diskrete ZV
7. Charakteristika
8. Exponential
Verteilungen, Berechnung der inversen
Verteilungsfunktion
9. Normal
10.Transformation
891 / 895
Zusammenfassung (5)
Markov-Ketten
Stochastik für
InformatikerInnen
Wolfgang Kössler
Begriff der Markov’schen Kette, Eigenschaften
1. Grundbegriffe
Klassifikation der Zustände (Kommunikation,
2. Kombinatorik
wesentliche, unwesentliche Zustände,
3. Bedingte Wkt
Periodizität)
4. Klass. Wkt.
Positiv rekurrente, nullrekurrente und transiente
5. Zufallsvariablen
6. Diskrete ZV
Zustände, mittlere Rückkehrzeit
7. Charakteristika
Ergodensatz, stationäre Verteilung, Berechnung
8. Exponential
stationärer Verteilungen
9. Normal
Irrfahrten
10.Transformation
892 / 895
Zusammenfassung (6)
Übungsaufgaben
Stochastik für
InformatikerInnen
10, 11 (Satz der Totalen Wkt., Satz von Bayes)
Wolfgang Kössler
8, 9 (Binomialverteilung)
1. Grundbegriffe
12 (Poisson-, Binomialverteilung, Satz der
2. Kombinatorik
3. Bedingte Wkt
Totalen Wkt.)
4. Klass. Wkt.
15 (Berechnen der Dichtefunktion, Berechnen
5. Zufallsvariablen
von Wktn.)
6. Diskrete ZV
16 (Geometrische Verteilung)
7. Charakteristika
8. Exponential
17, 18 (Rechnen mit Erwartungswert und
Varianz)
9. Normal
10.Transformation
21 (Rechnen mit Wktn., Exponentialverteilung)
893 / 895
Zusammenfassung (7)
Übungsaufgaben (2)
Stochastik für
InformatikerInnen
Wolfgang Kössler
20 (Normalverteilung)
1. Grundbegriffe
22, 24a,b,c, 25 (Transformationsformel)
2. Kombinatorik
23 (Geometrische Verteilung, Rechnen mit
3. Bedingte Wkt
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
Wktn.)
26 (Faltung)
28 (Berechnen von Erwartungswerten)
7. Charakteristika
8. Exponential
9. Normal
30 (Eine Formel, die die Berechnung des
Erwartungswertes manchmal erleichtert)
10.Transformation
894 / 895
Zusammenfassung (8)
Übungsaufgaben (3)
Stochastik für
InformatikerInnen
Wolfgang Kössler
1. Grundbegriffe
28,31,34 (Zweidimensionale Zufallsvariablen,
2. Kombinatorik
Berechnung von Korrelationskoeffizienten)
3. Bedingte Wkt
34a (Transformationsformel)
4. Klass. Wkt.
5. Zufallsvariablen
6. Diskrete ZV
7. Charakteristika
31,32, 42 (Berechnen von Kovarianzen und
Korrelationen)
37 (Randverteilungen)
8. Exponential
9. Normal
10.Transformation
895 / 895
Zusammenfassung (9)
Übungsaufgaben (4)
Stochastik für
InformatikerInnen
Wolfgang Kössler
35,36 (Zentraler Grenzwertsatz,
1. Grundbegriffe
Tschebyschev-Ungleichung)
2. Kombinatorik
3. Bedingte Wkt
37,38 (Momentenschätzung, ML-Schätzung)
4. Klass. Wkt.
40,41 (Zufallszahlen, Anwendung der
5. Zufallsvariablen
Transformationsformel)
6. Diskrete ZV
7. Charakteristika
8. Exponential
41 (Dichte, Zufallszahlen, Akzeptanzmethode)
42, 43, 44 (Markov-Ketten)
9. Normal
10.Transformation
896 / 895
Herunterladen