Stochastische Modellbildung

Werbung
Stochastische Modellbildung
Prof. Dr. Andreas Greven
Mitschrift: Philipp Drössler
Stand: 25. Juni 2012
Inhaltsverzeichnis
1 Mathematische Beschreibung von Zufallsexperimenten
1.1 Bausteine . . . . . . . . . . . . . . . . . . . . . . . .
1.2 Ereignisfelder . . . . . . . . . . . . . . . . . . . . . .
1.3 Wahrscheinlichkeitsmaße (W-Maße) . . . . . . . . . .
1.4 Zufallsvariable . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
4
4
4
6
7
2 Konstruktion von Wahrscheinlichkeitsmaßen
9
2.1 Abzählbare und endliche Grundräume . . . . . . . . . . . . . . . . . . . . 9
2.2 Wahrscheinlichkeitsmaße auf R mit Dichten . . . . . . . . . . . . . . . . . 10
2.3 Verteilungsfunktion und Wahrscheinlichkeitsmaße auf R . . . . . . . . . . 11
3 Mehrstufige Zufallsexperimente
3.1 Elementare bedingte Wahrscheinlichkeiten . . . . . . . . . . . . . . . . . .
3.2 Mehrstufige Experimente . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.3 Hypergeometrische Binomial- und Poissonverteilung . . . . . . . . . . . .
13
13
14
17
4 Kenngrößen von Zufallsvariablen
4.1 Modalwert, Medium und Quantile . . . . . . . . . . . . . . . . . . . .
4.2 Der Erwartungswert und die Varianz einer Zufallsgröße (diskreter Fall)
4.3 Erwartungswert und Varianz für eine Zufalsvariable mit Werten in R .
4.4 Kovarianz und Korelation . . . . . . . . . . . . . . . . . . . . . . . . .
4.5 Lineare Approximation von X und Y und Korelation . . . . . . . . . .
19
19
20
23
25
27
.
.
.
.
.
.
.
.
.
.
5 Summen unabhängiger Zufallsvariablen
28
5.1 Faltung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
5.2 Erzeugende Funktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
6 Das Gesetz der großen Zahl und der zentrale Grenzwertsatz
32
6.1 Die Tschebyscheff Ungleichung . . . . . . . . . . . . . . . . . . . . . . . . 32
6.2 Der zentrale Grenzwertsatz . . . . . . . . . . . . . . . . . . . . . . . . . . 33
7 Der
7.1
7.2
7.3
Poissonprozess, Markowketten und Warteschlange
Der Poissonprozess . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Eine andere Sichtweise auf den Poissonprozess . . . . . . . . . . . . . . . .
Markowketten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1
36
36
38
39
Stichwortverzeichnis
46
Logbuch
48
2
Einleitung
• Modellierung von Realitätsausschnitten, bei denen der Zufall eine Rolle spielt.
• Mathematische Durchdringung der Modelle und rechnerische Beherrschung
Beispiele:
0. Stammbaum von Spezies des Tieres.
1. KFZ-Versicherung
Ausgaben:
- Zeitpunkte von Unfällen (zufällig)
- Schadenshöhe (zufällig)
Einnahmen: deterministischer Beitragsfluss
2. Ein Exportbetrieb verkauft Produkte im Dollarraum, produziert aber im Euroraum
Put-Option. Welchen Preis soll er zahlen?
3. Medikamentenzulassung.
Ist das neuentwickelte Medikament zur Herzinfarkt-Therapie besser als herkömmliche Mittel?
4. Wir werfen N -mal eine Münze.
- Mit welcher Wahrscheinlichkeit tritt k-mal Zahl auf?
- Mit welcher Wahrscheinlichkeit kommt beim j-ten Wurf Zahl bzw. Kopf?
5. Wie hoch ist die Wahrscheinlichkeitvon:
”2 Hörer dieser Vorlesung haben am gleichen Tag Geburtstag?”
3
1 Mathematische Beschreibung von Zufallsexperimenten
1.1 Bausteine
(i) Der Merkmalsraum Ω (auch ”Stichprobenraum”)1
Ω ist eine nicht leere Menge, die alle möglichen Ausgänge des Zufallsexperimentes
beschreibt. Für Elemente von Ω schreiben wir ω.
(ii) Das Ereignisfeld A. A ist ein Teilsystem von Teilmengen2 von Ω mit der Interpretation:
A ∈ A tritt ein ⇔ Der Ausgang ω unseres Zufallsexperimentes liegt in A.
(iii) Das WahrscheinlichkeitsmaßP (”W-Maß”)
Jedem Ereignis wird ein Wahrscheinlichkeitsmaß zugeordnet.
P : A → [0, 1]
(P ist keine Funktion auf Ω sondern eine Funktion auf dem Ereignis!)
Die drei Bausteine (Ω, A, P ) heißen Wahrscheinlichkeitsraum (”W-Raum”).
Erste Aufgabe: Gebe den Wahrscheinlichkeitsraum zu einem Zufallsexperiment an.
1.2 Ereignisfelder
A ein Ereignis: A tritt nicht ein soll ein Ereignis sein.
Mit Ereignisses A1 , A2 , . . . Jedes der A1 , A2 , . . . tritt ein soll Ereignis sein.
Eine der Ai tritt ein soll Ereignis sein. Formal:
(i) Ω ∈ A
(ii) A ∈ A ⇒ CA ∈ A
(iii) A1 , A2 , · · · ∈ A ⇒
(iii)’ A1 , A2 , · · · ∈ A ⇒
∞
S
i=1
∞
T
i=1
Ai ∈ A
Ai ∈ A (iii) impliziert (iii)′
Definition 1.1 (σ-Algebra)
Ein System A von Teilmengen von Ω heißt σ-Algebra, wenn (i) − (iii) bzw. (i) − (iii)′
erfüllt sind.
Ereignisfelder über Ω sind σ-Algebren von Teilmengen von Ω
Wenn |Ω| < ∞, dann wählt man P(Ω) als Ereignisfeld.
Das gleiche für Ω abzählbar.
1
2
Mögliche Ausgänge des Experimentes
A ⊆ P(Ω); P(Ω) ist die ”Potenzmenge” von Ω
4
Subtiler: Ω = R
Ereignisse: Ausgang des Experimentes fällt in [a, b], (a, b], (a, b), (a, b],
a < b, a, b ∈ R
Definition 1.2 (von E erzeugete σ-Algebra)
Ist E ein System
T von Teilmengen von Ω, dann heißt
G
σ(E) :=
G : σ−Algebra
G⊇E
die von E erzeugte σ-Algebra und E heißt Erzeuger
Bemerkung:
1. σ(E) ist die kleinste σ-Algebra, die E enthält
2. Die Definition ist sinnvoll, denn der Schnitt ist nie leer, da
P(Ω) ⊇ E und P(Ω) ist σ-Algebra
3. σ(E) ist tatsächlich eine σ-Algebra, denn:
T
G, denn Ω ∈ G für alle G mit (G : σ − Algebra) ∧ (G ⊇ E)
(i) Ω ∈
G : σ−Algebra
G⊇E
(ii) Sei A ∈
T
G : σ−Algebra
G⊇E
G.Sei G ⊇ E σ-Algebra, beliebig.
Dann ist A ∈ G und CA ∈ G, denn G ist σ-Algebra.
Da G beliebig
T ist und (G : σ − Algebra) ∧ (G ⊇ E) gilt, folgt:
G.
CA ∈
G : σ−Algebra
G⊇E
(iii) Seien Ai ∈
T
G : σ−Algebra
G⊇E
G, i ∈ N.
(d.h. ∀i ∈ N und G ⊇ E, σ-Algebra, gilt: Ai ∈ G)
Sei G ⊇ E σ-Algebra.
Dann gilt: Ai ∈ G ∀i ∈ N.
Da G
Tσ-Algebra ist. gilt:
Ai ∈ G.
G : σ−Algebra
G⊇E
Da
σ-Algebra ist folgt:
T
T G ⊃ E beliebige
G
Ai ∈
i∈N
G : σ−Algebra
G⊇E
Beispiele
1. Sei Ω = R. Dann wählt man kanonischerweise:
E := {[a, b) : a, b ∈ R, a ≤ b}
Dann heißt σ(E) =: B(R die Borel-σ-Algebra
2. Sei Ω höchstens abzählbar3 . Dann Wählt man kanonischerweise:
E := {{ω} : ω ∈ Ω}. Dann ist σ(E) = P(Ω)
3
”diskret”
5
1.3 Wahrscheinlichkeitsmaße (W-Maße)
Um Ereignissen4 Wahrscheinlichkeiten zuzuordnen, kann man von der Vorstellung ausgehen, dass Wahrscheinlichkeiten als Grenzwerte - von relativen Häufigkeiten bei großen
Zahlen von unabhängigen Wiederholungen des Zufallsexperimentes - auftreten.
hn (A) = n1 · (Anzahl der Experimente bei denen A eintritt)
Was hat hn (A) für typische Eigenschaften?
• hn (Ω) = 1
• 0 ≤ hn (A) ≤ 1 ∀ A ∈ A
• hn (A ∪ B) = hn (A) + hn (B)
Diese Eigenschaften nehmen wir nun als definierende Eigenschaften für das allgemeine
Objekt ”Wahrscheinlichkeitsmaß”
Definition 1.3 (Wahrscheinlichkeitsmaß)
Eine Abbildung P : A → R, wobei A eine σ-Algebra ist heißt Wahrscheinlichkeitsmaß,
wenn gilt:
1. P (A) ∈ [0, 1]
∀A ∈ A
2. P (Ω) = 1
3. Seien Ai ∈ A, i ∈ N
i ∩ Aj = ∅ falls i 6= j
A∞
∞
S
P
Ai =
Dann gilt: P
P (Ai )
i=1
i=1
Bemerkung:
1. Wahrscheinlichkeitsmaße werden oft auch ”Vereteilung” genannt.
2. Falls Ai ∈ A, i ∈ N, mit Ai ∩ Aj = ∅ für i 6= j, schreibt man oft auch
∞
∞
∞
∞
S
P
S
U
Ai =
Ai oder auch
Ai =
Ai
i=1
i=1
i=1
i=1
D.h. wir hätten in 1.3 auch schreiben
∞ können:
∞
P
P
Ai =
Falls Ai ∈ A, i ∈ N, so gilt: P
P (Ai )
i=1
i=1
Beispiele:
1. Das einfachste Beispiel für ein Wahrscheinlichkeitsmaß erhält man durch sogenannte Laplace Experimente.
Wähle Ω := {1, . . . , N }, N ∈ N
A = P(Ω)
|A|
P (A) =
∀A ∈ A
|Ω|
4
Elementen aus A
6
Diese Verteilung nennt man auch Gleichverteilung auf Ω, da P ({ω}) =
(Man nennt {ω} auch ”Elementarereignis”)
1
∀ω ∈ Ω
|Ω|
2. Konkretisierung von 1. n-facher unabhängiger Münzwurf.
Jeder Wurf hat als Ausgang entweder 0 (”Kopf”) oder 1 (”Zahl”). Formalisierung:
Ω = {0, 1}n A := P(Ω)
• Falls die Münze fair ist, d.h. Ausgänge 0 und 1 sing gleich wahrscheinlich, dann:
1
1
= n ∀ω ∈ Ω
P ({ω}) =
|Ω|
2
• Falls die Münze unfair ist
d.h. die Wahrscheinlichkeit für 0 ist p ∈ (0, 1)\{ 12 } = (0, 12 ) ∪ ( 12 , 1), dann gilt:
n
P
P ({ω}) = pi=1
ωi
n−
· (1 − p)
n
P
i=1
ωi
= pk(ω) · (1 − p)n−k(ω) mit k(ω) :=
Bemerkung:
Ein Wahrscheinlichkeitsmaß P hat folgende Eigenschaften:
Seien A und B ∈ A σ-Algebra auf Ω
n
P
i=1
ωi
∀ω ∈ Ω
1. P (CA) = 1 − P (A), denn P (Ω) = P (A + CA) = P (A) + P (A)
2. P (∅) = 0, denn P (∅) = P (CΩ) = 1 − P (Ω) = 1 − 1 = 0
3. A ⊃ B ⇒ P (A) ≥ P (B), denn A = B + A\B,alsoP (A) = P (B) + P (A\B) ≥ P (B)
4. P (A ∪ B) ≥ P (A) + P (B), denn P (A ∪ B) = P (A) + P (B) − P (A ∩ B)
Diese Identität sieht man so:
P (A) = P (A\B) + P (A ∩ B)
P (B) = P (B\A) + P (A ∩ B)
einsetzen
P (A∪B) = P ((A\B) + (B\A) + (A ∩ B)) = P (A\B)+P (A\A)+P (A∩B)
=
P (A) + P (B) − P (A ∩ B)
1.4 Zufallsvariable
Betrachte das Beispiel des n-fachen Münzwurfes oder 3 Würfeln. Wir interessieren uns
für die Zahl der Würfe von Zahl oder die Augensumme. Das heißt: Statt Aussagen in
{0, 1}n bzw. {1, . . . , 6}3 erhalen wir nun Ausgänge in {0, 1, . . . , n} bzw. {3, 4, . . . , 18}
Definition 1.4 (Zufallsvariable) Gegeben seien Merkmalsräume Ω und Ω′ mit Ereignisfeldern A und A′ . Eine Zufallsvariable (Zufallsgröße) ist eine Abbildung
X : Ω → Ω′ , die messbar ist, d.h es gilt:
X −1 (A′ ) ∈ A ∀A′ ∈ A′
[TODO: Graphik]
Beispiele:
7
1. In unserem Beispiel des n-fachen Münzwurfes (Gesamtzahl der 1er)
Ω = {0, 1}n Ω′ = {0, 1, . . . , n}
A = P(Ω) A′ = P(Ω′ )
n
P
X(ω) =
ωi , ω = (ω1 , ω2 , . . . , ωn ) ∈ Ω
i=1
2. Ω = {1, 2, . . . , 6}3 , Ω′ = {3, . . . , 18}
Augensumme: X(ω) = X({(ω1 , ω2 , ω3 )}) = ω1 + ω2 + ω3
Definition 1.5 (Verteilung)
Sei X eine Zufallsvariable auf (Ω, A, P ) mit Werten in (Ω′ , A′ ) die Verteilung Px der
Zufallsgröße X ist ein Wahrscheinlichkeitsmaß auf (Ω′ , A′ ), das gegeben ist durch:
PX (A′ ) = P (X −1 (A′ )) = P ({ω ∈ Ω : X(ω) ∈ A′ }) ∀A′ ∈ A′
PX (Ω′ ) = 1
PX (A′ ) = P (X −1 (A′ )) ∈ [0, 1]
PX (A′1 + A′2 + . . . ) = P (X −1 (A′1 + A′2 + . . . ) = P (X −1 (A′1 ) + X −1 (A′2 ) + . . . ) =
P (X −1 (A′1 )) + P (X −1 (A′2 )) + · · · = PX (A′1 ) + PX (A′2 ) + . . . ∀A′i ∈ A′ , i ∈ N
Beispiel:
N -facher Münzwurf
Ω = {0, 1}N , A = P(Ω), Ω′ = {0, 1, . . . , N }, A′ = P(Ω′ )
Für p : ’Wahrscheinlichkeit für ”1”
und 1 − p : ’Wahrscheinlichkeit für ”0” gilt
P ({ω}) = P ({(ω1 , ω2 , · · · ωN )}) = pk (1 − p)n−k mit
N
k := k(ω) = ω1 + ω2 + · · · +
ωN
, ωi ∈ {0, 1}, ω ∈ {0, 1}
N k
PX ({t}) = P (X −1 ({t}) =
p (1 − p)N −t
t
Bemerkung: (Ω′ A′ , PX ) ist wieder ein Wahrscheinlichkeitsraum.
8
2 Konstruktion von Wahrscheinlichkeitsmaßen
2.1 Abzählbare und endliche Grundräume
Betrachte |Ω| < ∞ und A = P(Ω)
Zähldichte
Ist P ein Wahrscheinlichkeitsmaß auf (Ω, A) und definiere
f : Ω → R durch f (ω) = P ({ω}), ∀ω ∈ Ω. Dann gilt:
• f (ω) ∈ [0, 1]
•
P
(P ({ω})) = P
ω∈Ω
• A ∈ A : P (A) = P
P
ω∈Ω
P
{ω} = P (Ω) = 1
ω∈A
P
P
f (ω)
P ({ω}) =
{ω} =
ω∈A
ω∈A
Wir nennen f die Zähldichte zu P
P
f (ω) = 1, dann wird durch:
Andererseits sei f : Ω → R mit 0 ≤ f (ω) ∀ω ∈ Ω mit
ω∈Ω
P
f (ω) ∀A ∈ A ein Wahrscheinlichkeitsmaß auf (Ω, A) definiert.
P (A) :=
ω∈A
Gleiches Spiel funktioniert für Ω abzählbar A = P(Ω).
Definition 2.1 (Binomialverteilung B(n, p))
Es sei Ω = {0, 1, . . . , n} und p ∈ [0, 1]. Man definiert die Binomialverteilung durch die
Zähldichte
f:
n k
f (k) =
p (1 − p)n−k , k ∈ {0, 1, . . . , n}
k
Häufig wird für die Dichte die Notation b(n, p; k) = nk pk (1 − pn−k , k ∈ N verwendet.
n
n
P
P
Binomisher Satz
=
(p + (1 − p))n = 1n = 1
pk (1 − p)n−k
b(n, p; k) =
b(n, p; k) ≥ 0,
k=0
k=0
Definition 2.2 (Geometrische Verteilung zum Parameter q)
Sei q ∈ (0, 1) und sei Ω = N = {1, 2, . . . }
Die geometrische Zähldichte f zum Parameter q ist gegeben durch:
f (k) = q k−1 (1 − q), m k ∈ N
f (k) ≥ 0
n
n
P
P
1 geom. Reihe
1−q
f (k)
q k−1 =
=
(1 − q)
=1−q·
1=
1−q
1−q
k=1
k=1
Definition 2.3 (Poissonverteilung, P oiss(λ))
Sei λ ∈ (0, ∞) ein Parameter und Ω = N0 = {0, 1, . . . }
9
Die Poissonzähldichte zum Parameter λ ist gegeben durch:
λk
f (k) = e−λ , k ∈ N0
k!
f (k) ≥ 0
∞ λk
∞
∞
P
P
P
λk
def. exp
1 = e−λ eλ = e−λ
e−λ
f (k)
=
=
k!
k=0 k!
k=0
k=0
Bemerkung: Für ein Experiment (Ω, A, P ) mit Ω abzählbar und sei X eine Zufallsvariable
mit Werten in (Ω′ , A′ ) dann hat PX die Zähldichte f (ω ′ ) = P (X −1 ({ω ′ })
2.2 Wahrscheinlichkeitsmaße auf R mit Dichten
Um Wahrscheinlichkeitsmaße auf (R, B(R)) zu definieren betrachen wir Wahrscheinlichkeiten
Definition 2.4 (Wahrscheinlichkeitsdichte auf R)
Sei f : R → R eine stetige (Lebesgue-messbare) Funktion mit
• f (x) ≥ 0,
•
R∞
∀x ∈ R
f (x)dx = 1
−∞
Dann heißt f eine Wahrscheinlichkeitsdichte auf R
Definition 2.5 (Gleichverteilung auf [A, B])
Die Wahrscheinlichkeitsdichte der Gleichverteilung auf [A, B], ist f (x)
(
1
B−A ,
0,
x ∈ [A, B]
x∈
/ [A, B]
Definition 2.6 (Exponentialverteilung)
Die Wahrscheinlichkeitsdichte der Exponentialverteilung zum Parameter α ∈ (0, ∞) ist
gegeben durch:
f (x) = αe−αx · 1[0,∞](x), x ∈ R
Diese Verteilung modelliert gedächtnislose zufällige Wartezeiten.
Definition 2.7 (Normalverteilung N (µ, σ 2 ))
Die Wahrscheinlichkeitsdichte zum Parameter (µ, σ 2 ) ∈ R × R+ ist gegeben durch:
−(x−µ)2
1
· e 2σ2 , x ∈ R
φ(x) = √
2πσ 2
und definiert die Normalverteilung zum Parameter (µ, σ 2 )
|
µ
(σ 2 reguliert die Spannweite, σ 2 groß → weite Spannweite)
10
Definition 2.8 (Betaverteilung Beta(µ, ν))
Sei µ, 
ν > 0. Die Beta(µ, ν)-Verteilung wird durc die Wahrscheinlichkeitsdichte
 Γ(µ + ν) xµ−1 (1 − x)ν−1 , 0 < x < 1
βµ,ν = Γ(µ)Γ(ν)
gegeben.

0, sonst
R∞
Mit Γ(α) = uα−1 e−u
0
Definition 2.9 (Gammaverteilung Γα,ν )
Sei α, 
ν > 0. Die Γ(α, ν)-Verteilung wird durch die Wahrscheinlichkeitsdichte
ν
 α xν−1 e−αx , x > 0
gegeben.5
γα,ν = Γ(ν)

0, sonst
2.3 Verteilungsfunktion und Wahrscheinlichkeitsmaße auf R
Oft werden Wahrscheinlichkeitsmaße auf R durch die Verteilungsfunktion definiert.
Definition 2.10 (Verteilungsfunktion)
Sei P ein Wahrscheinlichkeitsmaß auf (R, B(R)). Dann heißt
F : R → R, F (x) = P ([−∞, x]), x ∈ R die Verteilungsfunktion von P .
Bemerkung:
Wird P durch eine Wahrscheinlichkeitsduchte gegeben, dann ist F stetig und es gilt:
Rx
F (x) =
f (y)dy
−∞
Beispiel 1: (Gleichverteilung auf[A, B])
1 –
|
A


0,
x≤A
x−A
F (x) = B−A , A < x < B


1, x ≥ B
Beispiel 2: (EXP (x))
(
0, x ≤ 0
F (x) =
e−αx , x > 0
Beispiel 3: (P oissonverteilung)
5
Γα,1 ist die Normalverteilung
11
|
B



0, x < 0


−λ


e , 0 ≤ x < 1
F (x) = e−λ (1 + λ), 1 ≤ x < 2

2


e−λ (1 + λ λ2 ), 2 ≤ x < 3




...
Lemma 2.11 (ohne Beweis)
1. F ist monoton nicht fallend
2. lim F (x) = 0,
x↓∞
lim F (x) = 1
x↑∞
3. F hat Limiten von Links und ist rechts stetig.
4. P ({x}) = F (x) − F _(x),
F _(x) = lim F (y)
y↑x
Bemerkung: FX (y) = PX ((−∞, y)) = P ({ω ∈ Ω : X(ω) ≤ y})
12
3 Mehrstufige Zufallsexperimente
3.1 Elementare bedingte Wahrscheinlichkeiten
Zufallsexperiment: Teilinformation über Ausgang.
Wie verändert das unsere Wahrscheinlichkeitsverteilung?
Werfe drei Würfel. Ausgang: {1, 2, . . . , 6}3
Teilinformation: Gesamtaugenzahl bspw. 5
Definition 3.1 (bedingte Wahrscheinlichkeit)
Sei A, B ∈ A und P (B) > 0. Dann heißt
P (A ∩ B)
P (A|B) :=
P (B)
die bedingte Wahrscheinlichkeit von A gegeben B
Bemerkung: P (A ∩ B) = P (B) · P (A|B)
Bemerkung:(P (B) > 0)
P (A∩B)
P (B) ,
WB (·) : QB (A) = P (A|B) =
QB (B) = 1 QB (CB) = 0
∀A ∈ A QB ist ein Wahrscheinlichkeitsmasß mit
QB (A) ∈ [0, 1].(Wir wissen: 0 ≤ P (A ∩ B) ≤ P (B))
∞
∞
∞
P
P
P
1
1
Def. QB
(Ai ∩ B)
· P ( Ai ) ∩ B =
·P
QB
AI
=
P (B)
P (B)
i=1
i=1
i=1
∞
∞
1 P
Def QB P
P (Ai ∩ B) =
QB (Ai )
P (B) i=1
i=1
P ist W-Maß
=
Lemma 3.2 (Formel von der totalen Wahrscheinlichkeit)
n
P
Sei Ω =
Bi mit Bi ∈ A ∀i = 1, . . . , n. Dann gilt für A ∈ A
i=1
P (A) =
n
P
i=1
P (Ai |B) · P (BI )
Beweischen:
P (A) = P (A∩Ω) = P
Bayessche Formel:
P (Bk |A) =
A∩(
n
P
i=1
n
n
n
P
P
P
(A ∩ Bi ) =
Bi ) = P
P (A∩Bi ) =
P (A|Bi )P (B)
i=1
P (Bk ) · P (A|Bk )
n
P
P (Bi )P (A|Bi )
i=1
Wir wissen P (Bk |A) =
P (Bk ∩ A)
P (A)
P (Bk ∩ A) = P (Bk )P (A|Bk ),
P (A) =
n
P
P (Bi )P (A|Bi )
i=1
13
i=1
i=1
Definition 3.3 (stochastisch unabhängig)
Zwei Ereignisse A und B (A, B ∈ A) heißen stochastisch unabhängig wenn gilt:
P (A ∩ B) = P (A) · P (B)
Sind A und B unabhängig: P (A|B) = P (A), P (B|A) = P (B)
Definition 3.4 Ereignisse Ai (i ∈ A)heißen stochastisch unabhängig, wenn gilt:
k
Q
P (A1 ∩ A2 ∩ · · · ∩ Aik ) =
P (Aij )
j=1
für alle Teilmengen {11 , . . . , ik } von {1, 2, . . . , n}
Bemerkung:
Beachte: alle Ai können paarweise unabhängig sein und trotzdem sind A1 , . . . , An nicht
stochastisch unabhängig.
Seien X1 , X2 , . . . , Xn Zufallsvariablen auf dem Wahrscheinlichkeitsraum (Ω, A, P ) mit
Werten in (Ω′ , A′ ). Dann heißt:
P(X1 ,...,Xn ) (A′1 × A′2 × · · · × A′n ) = P ({ω ∈ Ω : X1 (ω) ∈ A′1 , . . . , Xn (ω) ∈ A′n })
∀A′i ∈ A i = 1, . . . , n
die gemeinsame Verteilung von X1 , . . . , Xn
Definition 3.5 (stochastische Unabhängigkeit von Zufallsvariablen)
Die Zufallsvariablen (Xi )i=1,...,n auf (Ω, A, P ) mit Werten in (Ω′ , mA′ ) heißen
stochastisch unabhängig, wenn gilt:
P(X1 ,...,Xn ) (A′1 × A′2 × · · ·× A′n ) = PX1 (A′1 )·PX2 (A′2 )·· · ··PXn (A′n ) ∀A′1 , A′2 , . . . , A′n ∈ A′
3.2 Mehrstufige Experimente
Beispiele:
• n-faches Werfen einer Münze oder eines Würfels.
• mehrfaches Ziehen von Kugeln aus einer -urne
• Börsenkurse einer Aktie zu n Zeitpunkten.
• Buchstabenfolge in einem Text.
• physikalische Daten eines Sampels einer Population:
Größe, Gewicht, Blutgruppe, Blutzuckerspiegel, Cholesterinspiegel, usw.
Seien Experimente durch (Ω1 , A1 ), . . . , (Ωn , An ) beschrieben |Ωi | < ∞ i = 1, . . . , n
Der Merkmalsraum des gesamten Experimentes ist: Ω = Ω1 × Ω2 × · · · × Ωn
A = σ(E), E = {A1 × · · · × An } Ai ∈ Ai
Wir wollen ein Wahrscheinlichkeitsmaß auf (Ω, A) definieren, indem wir die Zähldichte auf Ω angeben.
14
Gegeben:
ω1 → f10 (ω1 ), ω1 ∈ Ω1 f10 (·) ist Zähldichte auf Ω1
ω2 → f21 (ω1 ; ω2 ), ω2 ∈ Ω2 f21 (ω1 ; ·) ist Zähldichte auf Ω2
ω3 → f32 (ω1 , ω2 ; ω3 ), ω3 ∈ Ω3 f32 (ω1 , ω2 ; ·) ist Zähldichte auf Ω3
..
.
k (ω , . . . , ω ; ω
ωk+1 ∈ Ωk+1
ωk → fk+1
1
k
k+1 ),
k
fk+1 (ω1 , . . . , ωk ; ·) ist Zähldichte auf Ωk+1
TODO: Graphik, Baum
f : (ω1 , . . . , ωn ) → f (ω1 , . . . , ωn ) = f10 (ω1 )·f21 (ω1 ; ω2 )·f32 (ω1 , ω2 ; ω3 )·· · ··fkk−1 (ω1 , . . . , ωk−1 ; ωk )
P
f (ω1 , . . . , ωn−1 ; ωn ) =
P P
P
f (ω1 , . . . , ωn ) =
···
ω1 ∈Ω1 ω2 ∈Ω2
ωn ∈Ωn
P 0
P P
···
f1 (ω1 ) · f21 (ω1 ; ω2 ) · f32 (ω1 , ω2 ; ω3 ) · · · · · fnn−1 (ω1 , . . . , ωn−1 ; ωn ) =
ωn ∈Ωn
ω1 ∈Ω1 ω2 ∈Ω2
X
P
P
fnn−1 (ω1 , . . . , ωn−1 ; ωn ) =
···
f10 (ω1 ) · f21 (ω1 ; ω2 ) . . .
ω=(ω1 ,...,ωn )∈Ω
ω1 ∈Ω1
P
ω1 ∈Ω1
..
.
=
ωn−1 ∈Ωn−1
P
···
X
ωn−2 ∈Ωn−2
f10 (ω1 ) . . .
f10 (ω1 ) = 1
ω1 ∈Ω1
|
ωn ∈Ωn
{z
X
|
n−2
fn−1
(ω1 , . . . , ωn−2 ; ωn−1 ) =
ωn−1 ∈Ωn−1
|
{z
=1, da Zähldichte
{z
=1, da Zähldichte
}
}
}
=1, da Zähldichte
Schreibweise: f = f10 ⊗ · · · ⊗ fnn−1
Sprechweise: f ist Kopplung der Wahrscheinlichkeitsdichten f10 , . . . , fnn−1
Sei A = A1 × A2 × · · · ×PAn , AP
Bemerkung: P
i ∈ A i = 1, . . . , n
f (ω1 , . . . ; ωn )
···
f (ω1 , . . . ; ωn ) =
P (A) =
ω1 ,...,ωn )∈Ω
ω1 ∈Ω1
ωn ∈Ωn
unabhängige Kopplung nennen wir den Fall:
k (ω , . . . , ω ; ω
˜k
fk+1
k = 0, 1, . . . , n − 1
1
k
k+1 = fk+1 (ωk+1 ),
k
˜
fk+1 : ωk+1 → [0, 1], Zähldichte
Beispiele:
a) Unabhängige Kopplung von Laplace-Experimenten mit Grundräumen Ω1 , . . . , Ωn
1
Dann ist f (ω1 , . . . ωn ) = |Ω11 | · |Ω12 | · · · · · |Ω1n | , f (ω1 , . . . , ωk ; ωk+1 ) = |Ωk+1
|
d.h Laplace-Experiment auf ganz Ω
15
b) Bernoulli-Experiment
(
p, ωk+1 = 1
k (ω , . . . , ω ; ω
fk+1
1
k
k+1 ) =
1 − p, ωk+1 = 0
n
P
f (ω1 , . . . ; ωn ) = pk (1 − p)n−k , k =
ωi
i=1
Xi : Xi (ω) = Xi (ω1 , . . . , ωn ) = ωi , i = 1, . . . , n
Bei unabhängiger Kopplung (i 6= j):
P (XP
i = ωi , Xj = ωj )
=
f (ω1 , . . . ; ωn )
ωk ∈Ωk
k∈{i,j}
=
P
ωk ∈Ωk
k∈{i,j}
f˜10 (ω1 ) · f˜21 (ω2 ) · · · · · f˜nn−1 (ωn )
= f˜ii−1 (ωi ) · f˜jj−1 (ωj ) = P (Xi = ωi ) · P (Xj = ωj )
Letztes folgt mit analoger Rechnung.
k (ω , . . . , ω ; ω
c) Markov-Kopplung fk+1
1
k
k+1 = p(ωi , ωk+1 ωk ∈ Ωk ωk+1 ∈ Ωk+1
Spezialfall: Ω1 = Ω2 = · · · = Ωn mit |Ωn | < ∞
Dann können wir die Ausgänge mit Zahlen in {1, . . . , M } kodieren. Dann lässt sich
p(·, ·) als eine M ×M -Matrix auffassen. Diese Matrix hat Einträge (p(i, j))i,j∈{1,...,M }
M
P
in [0, 1] mit
p(i, j) = 1 ∀i ∈ {1, . . . , M }. Eine solche Matrix heißt stochastische Matrix6
j=1
d) (zufälliges Ziehen ohne Zurücklege: 6 aud 49)
Ω = Ω1 × Ω2 × . . . Ω6 = {1, 2, . . . , 49}
1
f10 (ω1 ) = |Ω11 | = 49
(
1
1
ω1 6= ω2
= 48
f21 (ω1 ; ω2 ) = |Ω2 |−1
0, ω1 = ω2
..
.
(
1
für ωi alle verschieden i = 1, . . . , 6
k
fk+1 (ω1 , . . . , ωk ; ωk+1 ) = |Ω1 |−k
0 sonst
..
.
(
1
· 1 · 1 · 1 · 1 · 1 für ωi 6= ωj i, j = 1, . . . , 6
f (ω1 , . . . , ω6 ) = |Ω1 | |Ω1 |−1 |Ω1 |−2 |Ω1 |−3 |Ω1 |−4 |Ω1 |−5
0 sonst
Allgemeiner:
f (ω1 , . . . , ωn ) =
(
1
|Ω1 |
·
1
|Ω1 |−1
0 sonst
· ··· ·
1
|Ω1 |−(n−1)
für ωi 6= ωj i, j = 1, . . . , 6
Eine andere Version des Experimentes: (N Kugeln, n mal Ziehen ohne Zurücklegen)
6
Ist überdies
M
P
p(i, j) = 1
∀j ∈ {1, . . . , M } ⇒ ”doppelt stochastisch”
i=1
16
K schwarze Kugeln und N − K weiße Kugeln
MN,K,n = #{gezogene schwarze Kugeln} Ω′ = {0, 1, . . . , n ∧ K}
PMN,K,n hat die Zähldichte fN,K,n(k), k ∈ Ω′
K
N −K k · n−k
fMN,K,n =
N
n
”hypergeometrische Verteilung” 7
Mit Zurücklegen: B(n, p) = B n, K
N
3.3 Hypergeometrische Binomial- und Poissonverteilung
N, K → ∞
K
p
−−−−−→
N N,K→∞
n, p bleiben fest.
Satz 3.6 (Approximation der hypergeometrischen Verteilung)
Sei p ∈ [0, 1]. Dann gilt:
h(N, K, n; k) −−−−−−−−−→ b(n, p; k) ∀k ∈ N0
K
N,K→∞, N
→ε
wobei b(n, p; k) = 0
∀k ∈ C{0, 1, . . . , n}
Beweis:
:::::::
h(N, K, n; k) =
K!
(K−k)!k!
·
(N −K)!
(n−k)!(((N −K)−(n−k))!
N!
n!(N −n)!
•
K!
(K−k)!
•
(N −k)
((N −K)−(n−k))!
•
N!
(N −n)!
•
K(K−1)...(K−k+1)
−−−→
Kk
k→∞
1
•
N (N −1)...(N −n+1)
−−−→
Nn
n→∞
1
= K(K − 1)(K − 2) . . . (K − k + 1)
= (N − K)(N − K − 1) . . . (N − K − (n − k) + 1)
= N (N − 1) . . . (N − n + 1)
h(N, K, n; k) =
n!
k!(n−k)!
·
K k
N
1−
K n−k
N
=
n
k
k
p (1 − p)n−k
Seltene Ereignisse in einer großen Zahl von unabhängigen Einzelversuchen
Sep (pn )n∈N eine Folge von Erfolgswahrscheinlichkeiten:
p −−−→ 0 np −−−→ λ ∈ (0, ∞)
n→∞
n→∞
λ
n
zum Beispiel pn =
7
häufig wird die Schreibweise ”h(N, K, n; k)” verwandt
17
Satz 3.7 (Satz von der Poissonapproximation)
a) Sei (pn )n∈N mit pn ≥ 0 pn −−−→ mit npn −−−→ λ ∈ (0, ∞).
n→∞
n→∞
Dann gilt: Die Poissonapproximation für die Binomialverteilung:
k
b(n, pn ; k) −−−→ e−λ · λk! ∀k ∈ N0
n→∞
b) Sei A ⊆ N0 . Dann gilt für die Poissonverteilung zuzm Parameter λ = npn
(Abkürzung: Πnp )
|Bnp (A) − Πnp (A)| ≤ np2n = (npn )pn
Beweis:
( )
•
= n(n−1)(n−2)...(n−k+1)
−−−→
k!·nk
:::::::
n
k
nk
n→∞
1
k!
• (npn )k −−−→ λk (nach Voraussetzung)
n→∞
n
n)
n−k
→ e−λ (1 − pn )k −−−→
•(1 − pn )
= (1−p
(1−pn )k
n→∞
(1 − pn )n = (1 − nλ + o( n1 ))n −−−→ e−λ
n→∞
Also gilt: b(n, pn ; k) =
Anwendung:
n
k
1, da pn −−−→ 0
n→∞
k
(n)
pn (1 − pn )n−k = nkk (npn )k (1 − pn )n−k =
• Verteilung: Blitzrate im Jahr in Deutschland
• Zahl der Unfälle pro Tag in Erlangen
• Zahl der Druckfehler pro Seite
• Radioaktiver Zerfall
18
1 k −λ
k! λ e
k
= e−λ λk!
4 Kenngrößen von Zufallsvariablen
4.1 Modalwert, Medium und Quantile
Gegeben ist eine Zufallvariable auf dem Wahrscheinlichkeitsram (Ω, A, P ) mit Werten in
R (oder Z, N, N0 )
X : Ω → R = Ω′
Definition 4.1 (Modalwert)
Jede Maximumsstelle einer Zähldichte oder Wahrscheinlichkeitsdichte heißt Modalwert
Beispiele:
1. N (µ, σ 2 )
|
µ
µ ist Modalwert
2. exp(α) : α1[0,∞) e−αx
Modalwert: 0
Deshalb spielen Modalwerte nur noxch eine Rolle bei Dichten der Form:
Definition 4.2 (Median)
Ein Median von X ist jener Wert mit:
FX (m_) ≤ 12 ≤ FX (m) f (x_) := lim f (y)
y↑x
Bemerkung:
Ist FX stetig8 suchen wir m als Lösung von F (m) =
1. N (µ, σ 2 ) mit m = µ
2. exp(α)
1
8
FX (y) = 1 · e−αy ,
!
· e−αy = 21
⇒m=
ln(2)
α
y∈R
insbesondere, wenn es eine Wahrscheinlichkeitsdichte hat
19
1
2
Also:
Definition 4.3 (α-Quantil)
Sei α ∈ [0, 1] (manchmsal drückt man das auch in % aus)
Der Wert uα heißt α-Quantil falls:
FX ((uα )_ ) ≤ α ≤ FX (uα )
Bemerkung:
Man beschreibt die Spannweite der Verteilung X durch [u0.05 , u0.95 ]
Ausgang hat Wahrscheinlichkeit ≤ 0.05
Ausgang hat Wahrscheinlichkeit ≤ 0.05
|
u0.05
|
m
Ausgang hat Wahrscheinlichkeit 0.9
|
u0.95
Nachteile des Median:
Betrachte X, Y wir kennen den Median. Was ist der Median von X + Y ?
Im Allgemeinen schwer zu sagen!
4.2 Der Erwartungswert und die Varianz einer Zufallsgröße (diskreter Fall)
Betrachte zunächsr X : Ω → Ω′ ⊆ R mit Ω′ endlich oder abzählbar
Ω′ endlich:
P
P ′
X({ω})P ({ω})
ω PX ({ω}) =
E[X] = EX =
ω∈Ω
ω∈Ω
PX ({ω ′ }) = P (X −1 (ω ′ )) = P ({ω ∈ Ω : X(ω) = ω ′ })
Problem: Ω′ abzählbar (z.B N, Z)
const.
Ω′ = N : PX ({ω}) =
k2
P const.
P ′
P const.
k
ω PX (ω) =
=
= +∞
2
k
k
ω∈N
k∈N
k∈N
Das heißt es ergibt sich ein Problem für Z
Definition 4.4 (integrierbare Zfallsvartiable)
a) Sei X : ΩP→ Ω′ ⊆ R+ (alsoPX(ω) ≥ 0 ∀ω ∈ Ω) und Ω, Ω′ abzählbar
X(ω)P ({/ω})
EX =
ω ′ P ({ω ′ }) =
ω ′ ∈Ω′
ω∈Ω
b) Ist
→ Ω′ ⊆ R, Ω,PΩ′ abzählbar und gilt
PX : Ω
|X(ω)|P ({ω})| < ∞ dann gilt:
|ω ′ |PX ({ω ′ }) =
ω ′ ∈Ω′
ω∈Ω
20
EX =
P
ω ′ ∈Ω′
ω ′ PX ({ω ′ }) =
P
X(ω)P ({ω})
ω∈Ω
Ein solchews X heißt integrierbar bzw. man sagt:
”der Erwartungswert existiert”
Bemerkung: Die Bedingung ist erfüllt ⇔ E[|X|] < ∞
Beispiele:
• PX : Gleichverteilung auf {1, . . . , N } EX = N 2+1
= N 2+1
EX = N1 (1 + 2 + · · · + N ) = N1 (N +1)N
2
• PX : Bernoulli-p-verteilt EX = p
EX = 0(1 − p) + 1p = p
• PX : B(n, p) verteilt EX = np
n
n
n
P
P
P
k nk pk (1 − p)n−k = np
k nk pk (1 − p)n−k =
k=1
k=1
k=0
np(p + (1 − p))n−1 = np
n−1 k−1
(1
k−1 p
− p)n−1−k+1 =
• PX : Poisson(λ) verteilt EX = λ
∞ ∞
∞
∞
P
P
P
P
k
k
λk−1
λk−1
=λ
=
e−λ (k−1)!
k e−λ λk! =
λ e−λ (k−1)!
EX =
k e−λ λk! =
k=1
k=1
k=1
k=0
∞ P
k
e−λ λk! = λ
λ
k=0
1
• PX : geometrische Verteilung EX = 1−p
∞ ′
∞
∞
∞
′
P k
P
P
P
k
k−1
k−1
=
p
p = (1−p)
kp
= (1−p)
k(1−p)p
= (1−p)
EX =
k=1
k=1
k=1
k=1
′
p
p
p
1
1
(1 − p) 1−p
= (1 − p) 1−p
+ (1 − p) (1−p)
2 = 1 + 1−p = 1−p
Satz 4.5 (Rechenregeln)
Seien X, Y, Z Zufallsvariablen aud (Ω, A, P ) mit Werten in (Ω′ , A′ ) deren Erwartungswerte existieren
a) X(ω) ≥ Y (ω)
∀ω ∈ Ω ⇒ EX ≥ EY
b) E[a + bX] = a + bEX,
a, b ∈ R
c) E[X + Y ] = EX + EY
Bemerkung: In a) reicht: X(ω) ≥ Y (ω)P.f.s ⇔ P ({ω ∈ Ω : X(ω) ≥ Y (ω)} = 1
Beweis:
:::::::
a) EX =
P
ω∈Ω
X(ω)P ({ω}) ≥
P
Y (ω)P ({ω}) = EY
ω∈Ω
21
b) a, b ∈ R für a + bX existiert der Erwartungswert:
|a
· |X(ω)|
P+ bX(ω)| ≤ |a| + |b|P
(|a| + |b||X(ω)|)P ({ω})
|a + bX({ω})| ≤
ω∈Ω
ω∈Ω
P
|X(ω)|P ({ω}) < ∞
|a| + |b|
ω∈Ω P
P
P
X(ω)P ({ω}) = a+bEX
aP ({ω})+b
(a+bX(ω))P ({ω}) =
E[a+bX] =
ω∈Ω
ω∈Ω
ω∈Ω
c) Da |X(ω) + Y (ω)| ≤ |X(ω)| + |Y (ω)| ∀ω ∈ Ω
Def.E P
(X(ω) + Y (ω))P ({ω}) =
E[X + Y ] =
ω∈Ω
P
P
Y (ω)P ({ω}) = EX + EY
X(ω)P ({ω}) +
=
ω∈Ω
ω∈Ω
Definition 4.6 (Varianz; Streuung)
Sei X : Ω → Ω′ ∈ R eine Zufallsvariable auf (Ω, A, P ) mit endlichem Erwartungswert
und seien Ω, Ω′ abzählbar. Dann heißt
V ar(X) = E[(X − EX)2 ]
die Varianz von X.
p
Die Streuung von X ist V ar(X)
Bemerkung: Es ist zur Berechnung von V ar(X) oft günstig folgende Formel zu verwenden. V ar(X) = E[X 2 ] − (EX)2
Def.
V ar(X) = E[(X−EX)2 ] = E[X 2 +(EX)2 −2X·EX] = E[X 2 ]+(EX)2 +E[−2XEX]
E[X 2 ] + (EX)2 − 2EX · E[X] = E[X 2 ] − (EX)2
Lem.4.5c),b)
Beispiel: Bernoulli(p): V ar(X) = E[X 2 ] − p2 = 1 · p + 0 · (1 − p) − p2 = p(1 − p)
Satz 4.7 (Rechenregeln für die Varianz)
a) V ar(a + X) = V ar(X) a ∈ R
V ar(bX) = V ar(X) b2 ∈ R
b) V ar(X) = 0 ⇔ X ist kontant (und gleich EX) P-f.s
Beweis:
:::::::
Def.
a) V ar(X) = E[((a + X) − E[a + X])2 ]
EX)2 ] = V ar(X)
Le.4.5b)
=
E[(a + X − a − EX)2 ] = E[(X −
b) V ar(bX) = E[(bX)2 ] − (E[bX])2 ] = b2 E[X 2 ] − b2 (E[X])2 = b2 (E[X 2 ] + E[X]2 ) =
b2 V ar(X)
22
=
zu b):
Wenn X(ω) 6= const ⇒ X(ω) 6= EX
für mindestens ein {ω} mit positiver Wahrscheinlichkeit
⇒ V ar(X) > 0
Gibt es ein µ mit: E[(X − µ)2 ] ist minimal? Und welche ist das?
Wenn E|X| <P∞ dan ist µ = EX
P
((X − EX) + (EX − µ))2 P ({ω}) =
(X(ω) − µ)2 P ({ω}) =
E[(Xµ)2 ] =
ω∈Ω
ω∈Ω
P =
(X(ω) − EX)2 + (EX − µ)2 + 2(X(ω) − EX)(EX − µ)) P ({ω}) =
ω∈Ω
= V ar(X) + (EX − µ)2 = V ar(X) ⇔ µ = EX 9
Bemerkung: In ähnlichem Verhältnis stehen Median und E|X − µ|
Es gilt: E|Y − u 1 | ≤ E|X − µ| ∀µ ∈ R
2
4.3 Erwartungswert und Varianz für eine Zufalsvariable mit Werten in R
Es sei X eine Zufallsvariable auf (Ω, A, P ) mit Werten in R und einer Verteilung PX mit
Wahrscheinlichkeitsdichte fX
Definition 4.8 (Erwartungswert und Varianz)
a) Es ghelte für die Wahrscheinlichkeitsdichte fX von PX :
R∞
|y|fX (y)dy < ∞ oder X(ω) =≥ 0
−∞
R∞
EX :=
yfX (y)dy
−∞
b) Für EX 2 (oder E[g(x)]) definieren wir:
!
∞
∞
R
R
E[X 2 ] =
y 2 fX (y)dy;
E[g(x)] =
g(y)fX (y)dy
−∞
Im letzten Fall fordern wir:
Insbesondere definieren wir:
V ar(X) = E[(X −
EX)2 ]
R∞
−∞
=
R∞
−∞
|g(y)|fX (y)dy)
y2f
X (y)dy
−∞
R∞
−
falls der Erwartungswert von X existiert.
9
Beachte:
P
yfX (y)dy
−∞
X
(X(ω) − EX)(EX − µ)P ({ω}) = (EX − µ)
ω∈Ω
!2
,
(X(ω) − EX)P ({ω})
ω∈Ω
P
|
ω∈Ω
23
{z
X(ω)P ({ω})+EX
P
ω∈Ω
}
P ({ω})=0
=0
Beispiel 1: Gleichverteilung auf [a, b] : EX = a+b
2
R∞
Die Bedingung ist klarerweise erfüllt, da
|y|fX (y)dy ≤ max(|a|, |b|) < ∞
R∞
EX =
yfX (y)dy =
−∞
Rb
a
−∞
1
y b−a
dy =
1
b−a
R∞
ydy =
−∞
1
2(b−a)
2 b
y a=
b2 −a2
2(b−a)
=
b+a
2
Beispiel 2: Exponentialverteilung exp(α) : EX = α1
R∞
R∞
R∞
R∞
y(−e−αy )′ dy =
EX =
yfX (y)dy =
yα1[0,∞](y)e−αy dy = y(αe−αy )dy =
−∞
[−ye−αy ]∞
0
−∞
R∞
− (−e−αy )dy = 0 − [ 12 e−αy ] =
0
0
0
1
2
Man parametrisiert die Exponentialverteilung oft mit 12 , d.h.
1
Dichte: α−1 1[0,∞] (y)e− 2 y ; EX = α
α=
b Lokationspsarameter
Beispiel 3: X ist N (µ, σ 2 )-verteilt, dann gilt:
EX = µ
V ar(X) = σ 2 mit Streuung σ
Wir
überlegen zunächst:
R
R 2
|y|fX (y)dy;
R q y fX (y)dy < ∞
In der Tat: |y| fX (y)dy < ∞ q ∈ N
2
Wir wissen ja: sup(|y 2 |e−βy ) < ∞
R∞ −αy2
dy < ∞ für jedes α > 0
e
−∞
Damit ist unsere Bediungungerfüllt und wir können explizit rechnen. Um den Erwartungswert für Zufallsvariablen X mit Werten in R, die nicht notwendigerweise eine Dichte
haben, gehen wir wie folgt vor:
FX (x) = P ({ω ∈ Ω : X(ω) ≤ ω})
Betrachte: X ≥ 0 Falls PX die Dichte f hat, gilt:
R∞
EX = F X (x)dx, F (x) = P ({ω ∈ Ω : X(ω) ≥ x})
0
Beweis:
:::::::
Rx
FX (x) =
f (y)dy, entsprechend F X (x) =
−∞
EX =
R
0
R∞
∞yf (y)dy =
R∞
f (y)dy
x
R∞ Ry
0
0
1dx f (y)dy =
R
{0≤x≤y}
F X (x)dx
0
Falls wir keine Dichte haben: (x ≥ 0)
R∞
E[X] := F X (x)dx X = X + − X − mit
0
24
f (y)dxdy =
R∞
0


Z
 ∞f (y)dy  dx =
|
x
{z
F X (x)
}
X + (ω) = max{0, X(ω)} X − (ω) = max{0, −X(ω)} X + , X − ≥ 0
Wenn E[X + ] < ∞, E[X − ]∞; dann setzen wir EE[X] = E[X + ] − E[X − ]
4.4 Kovarianz und Korelation
Man sucht eine einfachere Kennzahl für die bestehende Abhängigkeit.
Definition 4.9 (Kovarianz und Korelation)
Seien X und Y Zufallsvariablen auf (Ω, A, P ) mit Werten in Ω′ ⊆ R
Es gelte: E[X 2 ], E[Y 2 ] < ∞
a) Dann heißt cov(X, Y ) = E[(X − EX)(Y − EY )] die Kovarianz von X und Y
b) Die Korelarion zwischen X und Y ist definiert als:
cov(X, Y )
p
ρ := p
V ar(X) V ar(Y )
Die Kovarianz kann oft günstig, wie folgt, berechnet werden:
cov(X, Y ) = E[X · Y ] − E[X]E[Y ]
Beweis:
:::::::
E[(X − EX)(Y − EY )] = E[XY − Y EX − XEY + EXEY ] =
= E[XY ] − E[Y EX] − E[XEY ] + E[EXEY ] = E[XY ] − EXEY − EXEY + EXEY =
= E[XY ] − EXEY
Lemma 4.10 (Multiplikationsregel)
Sind X und Y unabhängig und ist E[X 2 ], E[Y 2 ] < ∞, dann gilt E[XY ] = EXEY
Lemma 4.11 (Grundeigenschaften der Korelation)
a) (Y = a + bX, a, b ∈ R,
⇒ ρ(X, Y ) ∈ {−1, 1}
b 6= 0)
b) E[X] = EXEY ⇒ ρ(X, Y ) = 0, insbesondere für X,Y unabhängig.
c) ρ(X, Y ) ∈ [−1, 1]
Lemma 4.12 (Varianz von Summen)
Seien X und Y Zufallsvariablen auf (Ω, A, P ) mit E[X 2 ], E[Y 2 ] < ∞. Dann gilt:
V ar(X + Y ) = V ar(X) + V ar(Y ) + 2cov(X, Y )
Insbesondere haben wir für unabhängige X und Y , cov(X, Y ) = 0, und damit:
V ar(X + Y ) = V ar(X) + V ar(Y )
Und damit für (Xi )i=1,2,...,n unabhängig:
V ar(X1 + X2 + · · · + Xn ) = V ar(X1 ) + V ar(X2 ) + · · · + V ar(Xn )
Beispiel:
B(n, p), Kovarianz: np(1 − p)
Bernoulli, Kovarianz: p(1 − p)
25
Beweis:
:::::::
(von Lemma 4.10)
Betrachte X, Y ≥ 0
Def. P
E[XY ] =
(ω1′ ω2′ )P ({ω ∈ Ω : X(ω1 ) = ω1′ })P ({ω ∈ Ω : X(ω2 ) = ω2′ }) =
′
′
ω ∈Ω






X
 X




ω1′ P ({ω ∈ Ω : X(ω) = ω1 }) 
=
ω2′ P ({ω ∈ Ω : X(ω) = ω2 })
 ′ ′
 ′ ′

ω1 ∈Ω
 ω2 ∈Ω

|
|
{z
}
{z
}
EX
X+
X −,
Im allgemeinen Fall betrachte X =
−
Y =Y
bzw. X + Y − , . . . sind positiv und unabhängig.
Setze dann in E[XY ] = E[(X + − X − )(Y + − Y − )]
EY
+−
Y − und betrachte X + , Y + ,
Beweis:
(Lemma 4.12)
:::::::
Def.V ar
V ar(X + Y ) = E[((X + Y ) − E[X + Y ])2 ] = E[(X + Y − (EX + EY ))2 ] =
= E[((X − EX) + (Y − EY ))2 ] = E[(X − EX)2 + (Y − EY )2 + 2(X − EX)(Y − EY )] =
= E[(X − EX)2 ] + E[(Y − EY )2 ] − 2E[(X − EX)(Y − EY )] =
= V ar(X) + V ar(Y ) − 2cov(X, Y )
Beweis:
:::::::
(Lemma 4.11)
a) Y = a + bX
E[XY ] = E[aX + bX 2 ] = aEX + bE[X 2 ]
EY = a + bEX
EXEY = EX(a + bEX) = aEX + b(EX)2
cov(X, Y ) = E[XY ] − EXEY = aEX + bE[X 2 ] − aEX − b(EX)2 = bV ar(X)
V ar(Y ) = V ar(a + bX) = V ar(bX) = b2 V ar(X)
bV ar(X)
cov(X, Y )
p
p
=p
= sign(b)
ρ(X, Y ) = p
V ar(X) V ar(Y )
V ar(X) b2 V ar(X)
D.h. : b > 0 ⇒ ρ(X, Y ) = 1, b < 0 ⇒ ρ(X, Y ) = −1
c) o.B.d.A. EX = EY = 0, da cov(a + X, b + Y ) = cov(X, Y )
(cov(X, Y ))2 ≤ V ar(X)V ar(Y ) ⇒ |ρ(X, Y )| ≤ 1
!2
P
cov(X, Y ) =
xyP (X = x, Y = y)
≤
x,y
P
x2 P (X = x, Y = y) y 2 P (X = x, Y = y) =
x,y
x,y
P 2
2
x P (X = x) y P (Y = y) = V ar(X) = V ar(Y )
CS−U G
=
≤
P
x
P
y
26
4.5 Lineare Approximation von X und Y und Korelation
Die Zufallsgröße X soll durch eine Einflussgröße X linear approximiert werden.
Y = a + bX+möglichst kleiner Rest;
klein im Sinne: Die mittlere quadratische Abweichung wird minimal.
Also seien X, Y Zufallsvariablen auf (ω, A, P ) mit EX 2 + EY 2 < ∞, mit V ar(X) > 0
Problem: Gesucht sind Zahlen a, b ∈ R mit E[(Y − (a + bX))2 ] minimal.
Z := Y − (a + bX) Beachte Z hängt natürlich von a und b ab.
Wir wollen E[Z 2 ] minimieren durch geschickte Wahl von a, b ∈ R
E[Z 2 ] = (EZ)2 + V ar(Z)
V ar(Z) hängt nicht von a ab.
Für festes b ist (EZ)2 minimal - genauer 0 - wenn wir a so wählen, dass EZ = 0, d.h.
amin = EY − bmin EX
Nun müssen wir bmin finden. Dazu müssen wir wissen wie V ar(Z) von b abhängt.
V ar(Z) = E[(Z − EZ)2 ] = E[((Y − (a + bX)) − E[Y − (a + bX)])2 ] =
= E[((Y − EY ) − b(X − EX))2 ] = V ar(Y ) + b2 V ar(X) − 2cov(X, Y )
Jetzt sind V ar(X), V ar(Y ), cov(X, Y ) feste Parameter und wir fassen die rechte Seite als Funktion von b auf.
f (b) = b2 V ar(X) − 2bcov(X, Y ) + V ar(Y )
!
f ′ (bmin ) = 0
f ′ (bmin ) = 2bmin V ar(X) − 2cov(X, Y ) = 0 p
V ar(Y )
σ(Y )
cov(X, Y )
cov(X, Y )
p
·p
= ρ(X, Y ) ·
=p
bmin =
V ar(x)
σ(X)
V ar(X) V ar(Y )
V ar(X)
Für den Fehler gilt nun:
a,b,einsetzen
2
min E[Z ] = min (V ar(Z))
=
V ar(Y ) 1 −
a,b
a,b
cov(X, Y )2
V ar(X)V ar(Y )
ρ(X, Y )
Dann und nur dann, wenn ρ ∈ {−1, 1}, ist der Fehler 0, (wennY > 0)
Also: Ist ρ(X, Y ) = 0, so ist der Fehler minimal.
= V ar(Y )(1 −
Korollar 4.13 Seien x, Y Zufallsvariablen auf (Ω, A, P ) mit 0 < V ar(X), V ar(Y ) < ∞,
dann gilt:
∃a, b ∈ R : Y = a + bX ⇔ ρ(X, Y ) ∈ {−1, 1} unf ρ(X, Y ) ist als sign(b) gegeben.
27
5 Summen unabhängiger Zufallsvariablen
Wir wollen untersuchen, wie X1 + X2 + · · · + Xn verteilt ist, d.h. berechne
P (X1 + X2 + · · · + Xn ∈ A) = PX1 +X2 +···+Xn (A), A ∈ B(R), wenn PX1 , PX2 , . . . , PXn
bekannt sind.
Dies ist natürlich nur sinnvoll sofern (Xi )i=1,...,n unabhängig sind.
5.1 Faltung
Beachte zunächst zwei unabhängige Zufallsvariablen x, Y mit Werten in Z mit Zähldichten fX , fY für PX , PY
Definition 5.1 (Faltung)
+
a) Seien f, g : Z → R+ . Dann heißt die Faltung f ⋆ g, die Funktion Z → R , gegeben
durch:
P
P
f (x)g(z − x), z ∈ Z
f (z − x)g(x) =
(f ⋆ g)(z) =
x∈Z
x∈Z
b) Wir schreiben für Wahrscheinlichkeitsverterilungen P, Q auf Z mit Zähldichten p, q
dann P ⋆ Q für das Wahrscheinlichkeitsmaß auf der Zähldichte p ⋆ q.
Bemerkung:
P P
P P
P
g(x)f (z − x) =
g(x)f (z − x) =
(f ⋆ g)(z) =
x∈Z z∈Z
z∈Z x∈Z
z∈Z
X
P
P
g(x)
f (z − x) =
g(x) = 1, da g Zähldichte.
=
x∈Z
z∈Z
|
{z
}
x∈Z
=1 da Zähldichte
Satz 5.2 Seien X; Y unabhängige Zufallsvariablen mit Werten in Z und PX , PY haben
die Zähldichten fX , fY . Dann hat PX+Y die Zähldichte
fX+Y = fX ⋆ fY
Ausführlich: fX+Y (z) =
P
x∈Z
fX (z − x)fY (x)
Beweis:
fX+Y
= P ({ω ∈ Ω : X(ω) + Y (ω) = z}) =
P
{ω ∈ Ω : X(ω) = x, Y (ω) = z − x} =
P
x∈Z
P
P ({ω ∈ Ω : X(ω) = x, Y (ω) = z − x}) =
=
x∈Z
P
P ({ω ∈ Ω : X(ω) = x}) · P ({ω ∈ Ω : Y (ω) = z − x}) =
=
x∈Z
P
fX (x)fy (z − x) = (fX ⋆ fY )(z), z ∈ Z
=
:::::::
x∈Z
Definition 5.3 (Faltung auf R)
28
a) Für zwei Funktionen f, g : R → R+ definieren wir die Faltung f ⋆ g : R → R, durch:
R∞
R∞
(f ⋆ g)(z) =
f (x)g(z − x)dx =
g(x)f (z − x)dx, z ∈ R
−∞
−∞
b) Haben die Wahrscheinlichkeitsverteilungen P, Q auf (R, B(R)) die Wahrscheinlichkeitsdichten p, q, dann ist P ⋆ Q die Wahrscheinlichkeitsverteilung mit Wahrscheinlichkeitsdichte p ⋆ q.
Beweis:
:::::::
Analog zum diskreten Fall.
Satz 5.4 Seien X und Y unabhängige Zufallsvariablen, deren Verteilung eine Wahrscheinlichkeitsdichte besitzt. Dann hat auch PX+Y eine Wahrscheinlichkeitsdichte fX+Y
mit fX+Y = fX ⋆ fY
Beweis:
:::::::
Analog zum diskreten Fall.
Beispiele:
(1) Poissonverteilung: Seien X, Y poissonverteilt zu den Parametern λX , λY und unabhängig. X + Y ist wiederum P oiss(λX + λY ).
Wir wissen PX+Y = Π(λ1 ) + Π(λ2 ), wenn Π(λ) die Poissonverteilung zum Parameter λ bezeichnet.
P −λ1 λk1
λ2j−k
−λ
2
e
· 1Z+ (k)e
· 1 + (j − k) =
(Π(λ1 ) ⋆ Π(λ2 )) (j) =
k!
(j − k)! Z
k∈Z
j
j
P
λj−k
1 P
λk1 λ2j−k
λk
= e−(λ1 +λ2 )
· j! =
=
e−λ1 1 e−λ2 2
k!
(j − k)!
j! k=0 k!(j − k)!
k=0
j 1 X j k j−k
e−(λ1 +λ2 )
=
λ λ
j!
k 1 2
}
|k=0 {z
Binomischer Lehrsatz
=(λ1 +λ2 )j
= e−(λ1 +λ2 )
(λ1 + λ2 )j
1
(λ1 + λ2 )j = e−(λ1 +λ2 )
= P oiss(λ1 + λ2 1)
j!
j!
(2) Seien x und Y unabhängig und geometrisch verteilt.
Ws (X = k) = Ws (Y = k) = p(1 − p)k−1 , k = 1, 2, . . .
d.h. X bzw. Y ist die Wartezeit auf den 1-ten Einser (Treffer)in einer Folge unabhängiger Bernulliexperimente.
L[X + Y ] = N b(2, p) (negative Binomialverteilung)
N b(2, p)(k) := (k − 1)p2 (1 − p)k−2 k ∈ N
Nachweis:
(1) Entweder durch Faltung
(2) oder durch Nachrechnen.
X + Y ist die Wartezeit auf den 2-ten Einser
29
Wartezeit ist k: k − 2 Nullen, 2 Einser; und einer der Einser ist an k-ter Stelle.
(k − 1)p2 (1 − p =k−2
Allgemeiner: Warten auf den r-ten Einser Tr ,
(T1j )j=1,... u-i.v geometrisch.
r
k−r
N b(2, p)(k) = k−1
r−1 p (1 − p)
Tr = T11 + T12 + · · · + T1r
5.2 Erzeugende Funktion
Sei f die Zähldichte einer Wahrscheinlichkeitsverteilung auf N0 .
Die erzeugende Funktion fˆ von f ist gegeben durch:
∞
P
f (k) · z k , z ∈ C, |z| ≤ 1
fˆ =
k=0
Da f (k) ≥ 0 und
∞
P
f (k) = 1 ist der Konvergebzradius mindestens 1.
k=0
Die Zähldichte f wird durch fˆ eindeutig festgelegt.
Erinnerung: Ableitung von fˆ im inneren des Konvergenzradius erhalten wir durch gliedweises differenzieren.
∞
P
f (k) =
f (j)(z j )y(k)
j=0
Also: f (k) = (k!)−1 f (k) (0)
Beispiel 1: (Poissonvertrilung)
λk
Πλ (k) = e−λ
k!
∞ (zλ)k
∞
P
P
λk
−λ
= e−λ ezλ = e−λ(1−z)
z k = e−λ
Π̂λ (z) =
e
k!
k!
k=0
k=0
Beispiel 2: (Binomialverteilung)
∞
∞
P
P
n k
n−k z k =
p
(1
−
p)
b̂(n, p; k) =
k
k=0
= (pz + (1 − p))n
k=0
n
k
Binom. Lehrsatz
=
(zp)k (1 − p)n−k
( Polynom in Z vom Grad n)
Satz 5.5 Seien X, Y unabhängige Zufallsvariablen mit Werten in N0
(Betrachte fX , fY , dieZähldichten der vertilungen von X,Y)
Dann gilt:
fˆX+Y = fˆX · fˆY
Allgemeiner: (Xi )i=1,2,...,n unabhängig N0 verteilt:
n
Q
n
=
fˆP
fˆX
Xi
i=1
i=1
i
Wir können also statt fX , fY zu falten einfach die erzeugenden Funktionen multiplizieren.
Beispiel:
x : P oiss(λ1 ), Y : P oiss(λ2 ), X, Y unabhängig.
30
X + Y hat die erzeugende Funktion:
exp(−λ1 (1 − z)) · exp(−λ2 (1 − z)) = exp(−(λ1 + λ2 )(1 − z))
Beweis:
:::::::
(von Satz 5.5)
fˆX (z) = E[z X ] fˆY (z) = E[z Y ]
X,Y unabh.
fˆX+Y = E[z X+Y ] = E[z Y z Y ]
=
E[z X ] · E[z Y ] = fˆX (z) · fˆY (z)
Lemma 5.6 Sei X eine N0 -wertige Zufallsvariable.
Dann ist für EX < ∞ bzw. EX 2 , . . . , EX k < ∞
EX = fˆ′ (1)
E[X 2 ] = fˆ′′ (1) + fˆ(1), E[X(X − 1)] = fˆ′′ (1)
E[X(X − 1) . . . (X − k + 1)] = fˆ(k) (1)
∞
∞
P
P
kf (k)z k−1
(f (k)z k )′ =
fˆ′ (1)(z) =
Für z = 1:
fˆ(k) (z) =
k=0
k=0
∞
P
kf (k) = EX
k=0
∞
P
(f (j)z j )(k) =
j=0
∞
P
Für z = 1:
j=k
P
j = k∞ (j(j − 1) · · · · · (j − k + 1))z j−k f (j).
j(j − 1) . . . (j − k + 1)f (j) = E[X(X − 1) . . . (X − k + 1)]
Poissonverteilung zum Parameter λ:
Π̂λ (z) = e−λ(1−z) Π̂′λ (z) = λe−λ(1−z)
(k)
(k)
Π̂λ (z) = λk e−λ(1−z) d.h Π̂λ (1) = λk k = 1, 2, . . .
E[X(X − 1) . . . (X − k + 1)] = λk
Insbesondere EX = λ E[X(X − 1)] = λ2
{z
}
|
E[X 2 ]−EX
E[X 2 ]
λ2
D.h.
=
+λ
V ar(X) = E[X 2 ] − (EX)2 = (λ2 + λ) − λ2 = λ
Betrachte jetzt zufällige Summen.
Seien N, X1 , X2 , . . . unabhängige N0 -wertige Zufallsvariablen.
Dabei haben X1 , X2 , . . . identische Verteilungen.
N
P
S :=
Xk
k=1
Was ist fˆS ?


fˆS (z) = E[z S ] = E z
=
∞
P
j=1


E 1{N =j} z
j
P
k=1
N
P
Xk
k=1
Xk
!
!

∞

P
=E
j=1
1{N =j} z

∞

 P
E 1{N =j} ·E z
=
{z
}
j=1 |
fN (j)
31
N
P
Xk
k=1
j
P
k=1
!
Xk

∞
 P

E 1{N =j} z
=
!
j=1

=
N
P
k=1
Xk
!

=
=
∞
P
j=1


E z
j
P
k=1
Xk
!
∞
∞
j
P
P

· fN (j) =
E z Xj
(fX (z))j · fN (j) =
 · fN (j) =
j=1
j=1
= fˆN fˆX (z) = (fN ◦ fX )(z)10
S=
N
P
fˆS (z) = fˆN fˆX (z) ,
|z| ≤ 1
)
N ist B(n, p), fˆN (z) = (pz + (1 − p))n
fˆS (z) = (pe−λ(1−z) + (1 − p))n
X ist P oiss(λ), fˆX (z) = e−λ(1−z)
i=1
Xi ,
z ∈ C,
Eine ähnliche Transformation hat man für R+ -wertige Zufallsvariablen.11
LX (λ) = E[e−λx ], λ ≥ 0
Satz 5.7 Seien X und Y unabhängige Zufallsvariablen mit Werten in R+ ∪ {0}
Dann gilt:
LX+Y (λ) = LX (λ · LY (λ)
Zufallsvariable mit Werten in R: ϕX (z) · E[eizx ]
6 Das Gesetz der großen Zahl und der zentrale
Grenzwertsatz
6.1 Die Tschebyscheff Ungleichung
Sei X eine Zufallsvariable mit endlichem Erwartungswert und Varianz.12
Satz 6.1 P ({ω ∈ Ω : |X − E[X]| ≥ ε}) ≤
V ar(X)
ε2
Beweis:
:::::::
Auf A = {ω ∈ Ω : |X(ω) − E[X]| ≥ ε} gilt:
1 ≤ ε−2 (X(ω) − E[X])2 , ω ∈ A
Wegen der Monotonie
des Erwartungswertes
−2
E [1A ] ≤ E ε 1A (ω)(X(ω) − E[X])2 ≤ ε−2 E X(ω) − EX 2 = ε−2 V ar(X)
Lemma 6.2 Seien X1 , X2 , . . . , Xn u.i.v Zufallsvariablen mit endlicher Varianz. Dann
gilt:
V ar(X1 + X2 + · · · + Xn ) = n · V ar(X)
Beweis:
:::::::
V ar(X1 + X2 + · · · + Xn ) = E ((X1 + X2 + · · · + Xx ) + E[X1 + X2 + · · · + Xn ])2 )
n
n P
P
= E ((X1 + E[X1 ]) + · · · + (Xn + E[Xn ]))2 =
E [(Xi − E[Xi ])(Xj − E[Xj ])]
i=1 j=1
evtl. (fN ⋆ fX )(z) oder (fˆN ◦ fˆX )(z)
LX (λ) heißt Laplace-Transformierte von X
12
E[X] < ∞, V ar(X) < ∞
10
11
32
i 6= j
E [(Xi − E[Xi ])(Xj − E[Xj ])] = E [Xi − E[Xi ]] E [Xj − E[Xj ]]) = 0
n
n
P
P
Also:
(E Xi − E[Xi ])2 =
V ar(Xi ) = n · V ar(X1 )
i=1
i=1
Satz 6.3 (Das schwache Gesetz der großen Zahl)
Seinen (Xi )i∈N Zufallsvariablen u.i.v. mit
E|X
i | < ∞, i ∈ N Dann gilt:
n
1 P
P
ω ∈ Ω : n
−−→ 0,
1{X∈A} − PX (A) > ε −n→∞
i=1
∀ε > 0
Beweis:
:::::::
Schritt1: EXi2 < ∞
n
n
n
P
P
P
P ({ω ∈ Ω : | n1
Xi −EX| ≥ ε}) ≤ ε−2 ·V ar n1
Xi − Ex = ε−2 V ar n1
Xi =
i=1
=
ε−2 n12 V
ar (X1 + X2 + · · · + Xn )
Lemma6.2
=
Schritt2: E|Xi | < ∞ ”Krengel”
i=1
1
−2
ε n2 V ar(X) −−−→
n→∞
i=1
0
Definition 6.4 (P-fast sicher)
Eine Folge von Zufallsvariablen (Yn )n∈N auf ΩA, P ) konvergiert P − f s.
gegen
(Ω, A, P ) wenn gilt:
n eine Zufallsvariable Y aufo
P
ω ∈ Ω : lim Yn (ω) = Y (ω)
=1
n→∞
Theorem 1 (Das starke Gesetz der großen Zahl)
Sei (Xi )i∈N eine Folge von unabhängig identisch verteilten (u.i.v) Zufallsvariablen auf
n
P
Xi . Dann gilt:
(Ω, A, P ) mit E|Xi | < ∞, i ∈ N. S0 , S1 , . . . , Sn := n1
Sn −−−→ EX
n→∞
i=1
P − f s.
Beweis:
:::::::
→ Vorlesung Wahrscheinlichkeitstheorie.
6.2 Der zentrale Grenzwertsatz
Umfragen: 2000 Iren; wie stimmen sie ab um Fiskalpackt
(
1
Xi =
0
ite befragte Person stimmt ab mit ”Ja”
ite befragte Person stimmt ab mit ”Nein”
p=
i = 1) = relative
P (X2000
Häufigkeit der ”Ja”-Sager in der Gesamtpopulation.
1 P
Xi − p ≥ ε klein
P 2000
i=1
n
P
S̃n =
Xi − nEX
i=1
33
tarkes Gesetz der großen Zahl (S.G.d.g.Z.):
S̃n
−−→
n −
n→∞
0
Von welcher Größenordnung ist nun S̃n wirklich?
n
P
Xi − nEX
√
wobei (Xi )i∈N u.i.v E|X| < ∞, 0 < V ar(X) = σ 2 < ∞
2
σ n
Jetzt gilt: E Ŝn =0


P
n
n
P
Xi − nEX
Xi − nEX
 i=1



 = V ar  i=1 √
=
√
V ar(Ŝn ) = V ar 




σ2 n
σ2 n
S̃n =
i=1
1
= 2 V ar
σ n
n
P
Xi
i=1
=
1 2
σ n=1
σ2 n
Satz 6.5 (Normalapproximation)
Seien (Xi )i∈N u.i.v. Zufallsvariable mit 0 < V ar(Xi ) < ∞
Dann gilt für z ∈ R, bzw. z1 < z2 , zj ∈ R, l = 1, 2
Zz
n
o
x2
1
√ e− 2 dx
P
ω ∈ Ω : Ŝn (ω) ≤ z
−−−→
n→∞
2π
P
n
ω ∈ Ω : z1 ≤ Ŝn (ω) ≤ z2
o
−−−→
n→∞
−∞
Zz2
z1
x2
1
√ e− 2 dx
2π
(=
b Φ(z))
a)
b) Seien (Xi )i∈N u.i.v. Bernoulli-verteilt mit Parameter p und (hn )n∈N eine Folge mit
hn − np
−−−→ x
√
npq n→∞
Dann gilt:
x2
1
e− 2
b(n, p; k) ∼ p
2π(n + 1)pq
Bemerkung:
Alle Verteilungen führen eine universale Lösung für die Wahrscheinlichkeiten von Ŝn .
Fehlerabschätzung mit zentralem Grenzwert (Berry-Essen)
Seien (Xi )i∈N u.i.v Zufallsvariablen mit 0 < V ar(X1 ) < ∞
Sei zusätzlich E|Xi3 | < ∞. Dann gilt:
x
n (X − EX )
R
P
y2
1
i
i
− 2
√1
√
≤
x
−
e
dy
sup P
≤
n
2π
x∈R i=1 V ar(Xi )
−∞
34
1
c0 E |X − EX|3
1 3
≤
·
3
n
V ar(x) 2
Wobei gilt: c0 ∈ [0.4, 0.8]
35
7 Der Poissonprozess, Markowketten und Warteschlange
In diesem Kapitel lernen wir stochastische Prozesse.
7.1 Der Poissonprozess
Ein Prozess zufälliger Punkte auf [0, ∞) oder [0, T ]
Motivation:
Geigerzähler, Schadensfälle, Warteschlangen (Eingang und Abgang von Kunden)
Sei Nt = #Punkte in [0, t]. Das ist eine Zufallsvariable mit Werten in N0 für jedes t.
Die Wahrscheinlichkeitsverteilung von Nt beschreiben wir durch: {Pn (t), n ∈ N0 }
Pn (t) = P ({Nt = n}), n ∈ N0
(Pn (t) ist die Wahrscheinlichkeit zium Zeitpunkt t n Punkte zu finden.)
Na,b = #Punkte in [a, b]
Satz 7.1 Wir nehmen an unsere Punktprozess hat folgende Eigenschaften:
(i) Na,b und Nc,d sind stochastisch unabhängig und [a, b] ∩ [c, d] = ∅
(ii) Na+s,b+s und Na,b haben für alle s ∈ R+ die gleiche Verteilung.
(iii) Es existiert
eine
Konstante λ > 0, so dass
P1 (∆t)
lim
=λ
∆t↓0
∆t
P (N∆t ≥ 2)
(iv) lim
=0
∆t↓0
∆t
Dann gilt für t ≥ 0 bzw. a, b ∈ [0, ∞), (a < b)
Nt ist Poissonverteilt zum Parameter λ · t
Na,b ist Poissonverteilt zum Parameter λ · (b − a)
Definition 7.2 (Poisson-Punktprozess - ”PPP”)
Man nennt ein System zufälliger Punkte auf [0, ∞), so dass die Bedingungen (i) − (iv)
erfüllt sind einen Poisson-Punktprozess.
| ×
× × ×
Definition 7.3 (Poisson-Prozess - ”PP”)
Der Prozess (Nt )t≥0 heißt Poissonprozess, wenn (i) − (iv) erfüllt sind.
| ×
× × ×
Definition 7.4 (Intensität)
Im Poissonprozess bzw. Poisson-Punktprozess heißt λ Intensität.
36
Satz 7.5 Die (Tk )k∈N sind u.i.v
P (Tk > t) = e−λt
Beweis:
:::::::
(von Satz 7.1)
Idee: Leite ein System von Differenzialgleichungen her um {Pn b(t), n ∈ N0 } zu bestimmen.
| ]
t ∆t
Es gilt: (Nt+∆t − Nt ), Nt sind stochastisch unabhängig.
Das folgt aud (i) und (iii), da nach (iii) ein fester Punkt mit Wahrscheinlichkeit 0 auftritt.
n = 0: Differenzialgleichung für (P0 (t))t≥0
• P0 (t + ∆t) = P ({Nt+∆t = 0}) = P ({Nt = 0} ∩ {Nt+∆t−Nt = 0}) =
|
[
(ii)
= P ({Nt = 0}) · P ({Nt+∆t − Nt = 0}) = P0 (t) · P0 (∆t)


Gegenereignis
}|
{
z
 P (t) (1 − P (∆t)) 
P0 (t) (P0 (∆t) − 1)


0
0
′
• P0 (t) = lim
= lim −
=
∆t↓0
∆t↓0 
∆t
∆t


Pk (∆t)
P0 (t) P1 (t) −


k=2
 = −λP0 (t)
−
= lim 


∆t↓0
∆t

∞
P
Also P0′ (t) = −λP0 (t)
P0 (t) = Ce−λt , C ∈ R,
⇒ C = 1 ⇒ P0 (t) =
P0 (0) = 1
e−λt
Als nächstes betrachten wir n ≥ 1:
Zu berechnen ist Pn′ (t) =?
Es gilt: Pn (t + ∆t) = P ({Nt+∆t } = n)
n
P
• Pn (t + ∆t) = P ({Nt+∆t = n}) =
P ({Nt = k} , {Nt+∆t − N = n − k}) =
{z
}
n=0 |
Pn (t)·Pn−k (∆t),da unabhängig
=
n−2
P
(Pn (t)Pn−k (∆t)) + Pn−1 (t)P1 (∆t) + Pn (t)P0 (∆t)
k=0
Pn (t + ∆t) − Pn (t)
= · · · = −λPn (t) + λPn−1 (t),da
∆t↓0
∆t
!
P
Pn (∆t)
−Pn (t)(1 − P0 (∆t)) = −Pn (t) P1 (∆t) +
• Pn′ (t) = lim
k≥2
Also haben wir: Für jedes m ∈ N
Differenzialgleichungen.
(Pk (k))k≥0 , n = 1, . . . , m erfüllt ein System von
37
Dann weiß man13 : Es gibt zu jeder Anfangsbedingung genau eine Lösung.
fn (t) =
(λt)n −λt
(t ≥ 0, n ∈ N)
n! e
(λt)n
(λt)n−1 −λt
−λt
−λe
n! + λ (n−1)! e
fn′ (t) =
fn (0) = 0 f0 (0) = 1
= −λfn (t) + λfn−1 (t)
Eindeutigkeit des Problems: Pn (t) = fn (t) =
(λt)n −λt
n! e
Beweis:
:::::::
(von Satz 7.5)
P (Tk ≥ t) = e−λt ,
(Tk )
| {zk∈N}
folgt aus (i) und (ii) von PPP






!
=0
{Tk ≥ t} = N k−1
(Summen stehen im Index)
k−1
P
P


Tj +t
Tj ,


j=0
j=0



P N
k−1
P
Tj ,
k−1
P
!
Tj +t
j=0
j=0

= 0 = P (Nt = 0) = e−λt
7.2 Eine andere Sichtweise auf den Poissonprozess
Man betrachtet das Intervall 0, nλ
Verteile unabhängig in n Schritten n Punkte nach der Gleichverteilung in diesem Intervall.
Die Wahrscheinlichkeit, dass ein Punkt auf ein teilintervall der Länge t fällt:
λt
t
n =
n
λ
Die Wahrscheinlichkeit genau k Punkte in diesem Intervall der Länge t zu platzieren ist:
n λt k
λt n−k
1
−
n
n
k
pn = λt
n · pn = λt D.h. nach dem Satz von der Poissonapproximation:
n,
k
n λt k
λt n−k
1
−
−−−→ e−λt (λt)
n
n
k!
k
n→∞
Also erhalten wir im Limes einen PPP mit Intensität λ.
(n)
Abstand der Punkte Tk
|
|
|
]
λ
n
T0
T1
(n)
Lines n → ∞?
Was
ist
die
Dichte
n
o von Tk im
n
[(n)
λ
= 1− n ·u
P
T0 ≥ u
{z
}
|
1−F (n) (u)
(n)
Die Wahrscheinlichkeit von T0
n−1
u 7→ λ 1 − nλ · u
13
ist also:
aus der Linearen Algebra
38
Dies konvergiert für n → ∞ gegen u 7→ λe−λu
7.3 Markowketten
Wir betrachten die Folge (Xn )n∈N von Zufallsvariablen mit Werten in einer endlichen
Menge von Zuständen {E1 , . . . , Ek }.
Bedinsystem: Kunden kommen nach diskreten Zeitschritten.
Es gibt eine Wahrscheinlichkeit, dass Einer/Keiner im nächsten Abschnitt kommt.
Die Wahrscheinlichkeit in einem Zeitschritt abgefertigt zu werden ist eine Zahl aus
(0, 1).
Betrachte jetzt die Zahl der Kunden im System als Zustand.
(in Warteschlange oder Server)
Wenn k Kunden im System sind wird keine Kunde mehr zugelassen.
Zustände: {0, 1, . . . , k}
Wie entickelt sich das System in der Zeit?
Sei a eine Wahrscheinlichkeitsverteilung auf den Zuständen {E1 , . . . , Ek } d.h
k
P
a = (a1 , . . . , ak ) mit ai ≥ 0 ∀i = 1, . . . , k,
ai = 1
i=1
Sei P = (Pi,j )i,j∈N eine stochastische Matrix,
k
P
d.h 0 ≤ Pi,j ≤ 1,
Pi,j = 1 ∀i = 1, . . . , k
j=1
Für diesen Prozess (Xn )n∈N
(⋆) P (X1 = Ei1 , X2 = Ei2 , . . . , Xn = Ein ) = ai1
Pi1 ,i2 , Pi2 ,i3 , . . . , Pin−1 ,in
Im Kapitel 3 hatten wir gesehen, dass auf diese Art Wahrscheinlichkeit auf Pfaden der
Länge n definiert werden.
Definition 7.6 (Markowkette)
Der Prozess (Xn )n∈N gegeben durch (⋆) heißt Markowkette mit Anfangsverteilung a und
Übergangswahrscheinlichkeit P = (Pi,j )j=1,...,k
Chrakteristische Eigenschaft einer Markowkette ist Vergangenheit und Zukunft sind unabhängig. Die Zukunft hängt nur von der gegenwart ab.
Satz 7.7 (Markoweigenschaft)
P (Xn+1 = Ein+1 | X1 = Ei1 , . . . , Xn = Ein ) = P (Xn = Ein+1 | Xn = Ein ) = Pin ,in+1
(Bedingte Wahrscheinlichkeit)
Beweis:
:::::::
LS = P (Xn+1 = Ein+1 | X1 = Ei1 , . . . , Xn = Ein ) =
P (Xn+1 = Ein , X1 = Ein , . . . , X1 = Ei1 )
=
=
P (Xn = Ein , . . . , X1 = Ei1 )
39
ai1 Pi1 ,i2 · Pi2 ,i3 · · · · · Pin ,in+1
= Pin ,in+1
ai1 Pi1 ,i2 · Pi2 ,i3 · · · · · Pin−1 ,in
P (Xn+1 = Ein+1 , Xn = Ein )
RS = P (Xn = Ein+1 | Xn = Ein ) =
=
P (Xn = Ein )
P
ai1 · Pi1 ,i2 · · · · · Pin−1 ,in · Pin ,in+1
=
=
i1 ,...,in−1
P
=
ai1 · Pi1 ,i2 · · · · · Pin−1 ,in
i1 ,...,in−1
P
ai1 · Pi1 ,i2 · · · · · Pin−1 ,in
Summe geht nur bis in−1
=
Pin ,in+1 ·
i1 ,...,in−1
P
i1 ,...,in−1
ai1 · Pi1 ,i2 · · · · · Pin−1 ,in
= Pin ,in+1 = LS
Beispiel 7.1 Irrfahrt mit absorbierendem Rand auf E0 , E1 , . . . , Ea
p
q
E0
E1
E2
p, q ∈ (0, 1) p + q

1 0
0

q 0
p


0
0 q
.
.

..
P =  ..
.
 ..

.
 ..
0 ... ...
...
E3
=1
...
...
p
..
..
.
...
...
.
q
0
p
0
...
q
0
0
0
Ea−2 Ea−1 Ea

0
.. 
.
.. 

.
.. 
.


0


p
1
Beispiel 7.2 Irrfahrt mit elastischem oder reflektierenden Rand auf
E0 , E1 , . . . , Ea , δ0 ∈ (0, 1]
p
q
1 − δ0 E0
E1
E2
...
p, q ∈ (0, 1) p + q = 1

1 − δ0 δ0
0

0
p
 q


q
0
 0
 .
..
P =
.
 ..
 .
 ..

 .
 ..
0
... ...
...
...
Ea−1 Ea
...
...
0
..
.
..
.
..
.
p
..
.
..
q
0
p
0
0
...
q
0
0
δ0
p
1 − δ0
.














Beispiel 7.3 Zyklische Irrfahrt auf E0 , E1 , . . . , Ea ]
40
q
E0

0
q


0


P =  ...

 ..
.

0
p
p
q
E1
E2
...
E3
p
0
0
p
...
...
q
0
..
.
p
..
.
..
0 ...
q
0
...
0
q
0
.
...
Ea−2 Ea−1 Ea
p

0 q
0

.. 
.

.. Diese Matrix ist doppelt stochastisch14
.


p 0

0 p
q 0
Beispiel 7.4 Irrfahrt mit Ruhepausen. Wir erlauben mit Wahrscheinlichkeit h ∈ [0, 1)
zu stehen und (1 − h)sich zu bewegen.
q(1 − h)
p(1 − h)
Ei−1
Ei
h
Ei+1
Anwendung der Beispiele 1-4 auf Bediensysteme
Server:
• Ein Bedienvorgang wird mit Wahrscheinlichkeit µ in einem Bedienschritt abgeschlossen; mit (1 − µ) wird zur nächsten Zeiteinheit ubergegangen.
• Mit Wahrscheinlichkeit ν trifft ein Kunde ein (pro Zeiteinhet)( mit (1 − ν) keiner.
• Sind n Kunden im System wird der n + 1te weggeschickt.
Zustände: {0, 1, . . . , n}
1 Zustände {1, . . . , n − 1} observable Kunden im System
Sprung nach unten: (1 − ν)µ
keine Änderung: νµ + (1 − µ)(1 − ν)
Sprung nach oben: ν(1 − µ)
2 In den Zuständen {0, n}
0 (elastisch): 0 Kunden: (1 − ν); 1 Kunde: ν
n (elastisch): n Kunden: νµ + (1 − µ)(1 − ν) + ν(1 − µ), n − 1 Kunden: (1 − ν)µ
14
D.h.
a
P
i=0
Pi,j = 1, ∀j = 0, . . . , a und
a
P
Pi,j = 1, ∀i = 0, . . . , a
j=0
41
Irrfahrt auf {0, 1, . . . , n} mit Ruhepausen und elastischem Rand:
q = (1 − ν)µ, p = ν(1 − µ); Randwahrscheinlichkeit nach 2)
Beispiel 7.5 Zwei Container A und B enthalten zusammen n Teilchen (n ∈ N).
Man greift eines der Teilchen aus den beiden Containern zufällig heraus und versetzt es
in den anderen Container.
Zustände: #Teilchen im Container A: {0, . . . , n}
P ist eine (n − 1) × (n − 1)-Matrix.


0 1
0
...
... 0
.. 
1
 n 0 1 − n1
0
.

.. 


.
0
1 − n2
0
 0 n2
.
.. 
..
..
..
P =
.
.
.
.

 ..

.
..
..
..
 ..
.
.
. 0



.
1
1

 ..
1−
0
n
n
0
0
1 0
Keine Irrfahrt,da die Wahrscheinlichkeiten vom aktuellen Zustand anhängen.
Beispiel 7.6 (Verzweigungsprozess)
(Zn )n∈N auf N0
(n)
Xi : Zahl der Nachkommen des i-ten Individuums der n-ten Generation.
Zn
P
(n)
Z0 = 1, Zn+1 =
Xi
i=1
(n)
u.i.v. N0 -wertig
Xi
n,i∈N
(n)
bk =: P (Xi = k), k ∈ N0
(Zn )n∈N ist ein Markowprozess mit Übergangsmatrix P = (Pi,j )i,j∈N0
Pi,j = b∗i (j), j ∈ N0 , i ∈ N
P0,j = 0 ∀j ∈ N
Berechnung von Wahrscheinklichkeiten bei Markowketten
Was ist die Wahrscheinlichkeit, nach n Schritten im Zustand k zu sein, wenn wir in j
starten.
P (Xn = k | X0 = j) = (P n )j,k
P (Xn = k | X0 = j) =
Def.M arkowkette
=
P
P
i1 ,...,in−1
P 2 j,i2
P
P (Xn = k, Xn−1 = in−1 , . . . , X1 = i1 ) =
i1 ,...,in−1
δi0 ,j Pj,i1 · Pi1 ,i2 · · · · · Pn−1,k
Pj,i1 Pi1 ,i2 =
P
Pj,i1 Pi1 ,i2 Pi2 ,i3 = P 3 j,i3
i1
i1 ,i2
. . . ergibt die Identität.
42
Stertverteilung von X0 istP
a (Wahrscheinlichkeitsvektor)
a = (a1 , . . . , ak ) (ai ≥ 0, a1 = 1)
Ist der Anfangszustand gemäß a verteilt, dann gilt:
• P (Xn = k) = (a · P n )k
Auszahlungsfunktion f : {E1 , . . . , Ek } → R
Wir fassen diese Funktion als Spaltenvektor auf.
k
k
P
P
f (El ) (P n )i,l (P n f )i
f (El )P (Xn = l | X0 = i) =
E [F (X) | X0 = i] =
l=1
l=1
Wie verhält sich P (Xn = k | X0 = j) −−−→? Hängt das von j ab?
n→∞
Definition 7.8 (Gleichgewichtsverteilung)
a) Eine Eahrscheinlichkeitsverteilung π auf den Zuständen {E
1 , . . . , Ek } der
Mar15
kowkette heißt eine Gleichgewichtsverteilung bezüglich P = (Pi,j )i,j=1,...,k , wenn
gilt:
k
P
πi Pj,j ′ = πj , ∀j ∈ {1, . . . , k} ,Symbolisch: πP = π
i=1
πi ≥ 0,
k
P
πi = 1
i=1
b) Gleichgewicht ⇔ π ist ein positiver normierter (bzgl. k · k1 ) Linkseigenvektor der
Matrix P , zum Eigenwert 1.
Bemerkung: Die Bedingung Pi Pi,j = πj Pj,i ∀i, j ∈ {1, . . . , k} impliziert πP = π
k
k
X
k
P
reversibel P
Pj,i = πj ∀j ∈ {1, . . . , k}
πi Pi,j
=
πj Pj,i = πj
i=1
i=1
|i=1{z }
1∀j∈{1,...,k}
Bemerkung: Der Vektor (1, 1, . . . , 1) ist stets ein positiver Rechtseigenvektor von P :
k
P
Pi,j · 1 = 1 Also ist k1 , k1 , . . . , k1 ein positiver normierter Rechtseigenvektor.
i=1
In der Regel aber nicht das gesuchte Gleichgewicht!
Definition 7.9 (Kette im Gleichgewicht)
Eine Markowkette heißt im Gleichgewicht, wenn gilt:
P (Xn = Ei ) ist unabhängig von n, für alle i ∈ {1, . . . , k}
Sei π eine Gleichgewichtsverteilung für P , dann ist die Markowkette zu P mit L[X0 ] = π
ist im Gleichgewicht.
P (Xn = Ei ) = (πP n )i Allgemein ist πP = π
15
invariantes Maß, Equilibrium
43
⇒ P (Xn = Ei ) = (πP n )i = πi
i ∈ {1, . . . , k}
Beispiel 1:
Die zyklische Irrfahrt
aus Beispiel 3 für Markowketten ist doppelt stochastisch. Dann ist
1
1 1
π = k , k , . . . , k ein Gleichgewicht.
k
P
1 · Pi,j = 1 ∀j ∈ {1, . . . , k}
i=1
Gleichgewicht ist die Gleichverteilung
Beispiel 2: (Geburts und Todesprozess auf N, ν, µ ∈ (0, 1))
µ
ν
P : Pi,i+1 = µ+ν
Pi,i−1 = µ+ν
für i = 1, 3, . . .
µ
ν
und P1,1 = µ+ν P1,1 = µ+ν
(Pi,j = 0 falls j ∈
/ {i, i − 1} i ≥ 2)
Ist ν > µ, so existiert
ein Gleichgewicht:
i−1
−1
· µν
, i∈N
πi = 1 − µν
Rechne nach: πj Pi,j = πj Pj,i
Klassifikation von Zuständen und Mengen von Zuständen
Eine Teilmenge C von Zuständen heißt abgeschlossen, falls gilt:
n = 0 ∀n ∈ N, i ∈ C, j ∈ CC (C c )
Pi,j
Eine Markowkette heißt irreduzibel, wenn nur der gesamte Zustandsraum eine abgeschlossene Menge ist.
n >0
D.h. für jedes i, j gibt es ein n mit Pi,j
Wenn wir in einer Matrix P mit abgeschlossener Menge C alle Einträge entfernen, die
i ∈ C, j ∈ CC oder umgekehrt beinhaltet, dann erhalten wir eine |C| × |C|-Matrix, die
stochastisch ist.
Definition 7.10 (periodisch,aperiodisch)
a) Eine Klasse L ⊆ {E1 , . . . , Ek } heißt periodisch mit Periode d ∈ N, wenn gilt:
L = L1 + L2 + · · · + Ld
P (X0 ∈ L1 , X1 ∈ L2 , . . . , Xd−1 ∈ Ld , Xd ∈ L1 ) = 1
b) Eine Markowkette heißt aperiodisch, wenn {E1 , . . . , Ek } die einzige periodische
Klasse, mit Periode 1, ist.
Satz 7.11 (Langzeitverhalten)
a) Ist die Matrix P irreduzibel und aperiodisch, dann gilt:
(P n )i,j −−−→ πj , ∀i, j ∈ {1, . . . , k}
n→∞
Dann ist π = (π1 , . . . , πk ) die eindeutige Gleichgewichtsverteilung von P .
44
b) Hinreichend
für
Aperiodizität und Irreduzibilität ist:
k
∃k ∈ N : Pi,j > 0 ∀i, j ∈ {1, . . . , k}
Markowketten in stetiger Zeit
Seien (Ti )i∈N unabhängige exponentialverteilte Zufallsvariablen.
Sei (Xi )i∈N eine Markowkette zu P und a.
T0 = 0 mit (Ti )i∈N und (Xi )i∈N sind unabhängige Zufallsvariablen.
Markowkette
in stetiger Zeit:
XN (t) t≥0 mit N (t) = k ↔ T1 + T2 + · · · + Tk−1 ≤ T1 + · · · + Tk
Die Parameter der Exponentialverteilung von Tk können von dem Zustand abhängen,
der zur Zeit t1 + T2 + · · · + Tk−1 erreicht wurde.
In unserem Bedienmodell könnte es so aussehen:
kt : Zahl der Kunden im System
Wenn die Wartezeit auf den nächsten Kunden EXP (λ) verteilt ist und die Bediendauer
EXP (µ) verteilt ist
• kt = kt + 1 wenn ein weiterer Kunde eintrifft
• kt = kt − 1 wenn ein Bedienvorgang endet
Wenn wir gerade gesprungen sind, dann tritt der nächste Sprung ↑ oder ↓ mit Wahrµ
λ
scheinlichkeit µ+λ
bzw. λ+µ
auf.
Dazu müssen wir berechnen W s(T1 < T2 ) mit T1 ∼ EXP (λ), T2 ∼ EXP (µ).
T1 und T2 unabhängig.
R
R∞ −λv Rv −µv
−λu
−µv
W s(T1 < T2 ) = {u<v} λe
µe
dudv = µe
λe
du dv =
0
0
i∞
h
R∞
R∞
µ
λ
= λ+µ
e−(µ+λ)v
= µe−λv 1 − e−λv dv = 1 − µe−(µ+λ)v dv = 1 − λ+µ
0
0
0
45
INDEX
Stichwortverzeichnis
Zufallsvariable . . . . . . . . . . . . . . . . . . . 20
Intensität. . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
irreduzibel . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
Symbols
σ-Algebra . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
Borel- . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
von E erzeugt. . . . . . . . . . . . . . . . . . . . .5
K
A
B
Kette
im Gleichgewicht . . . . . . . . . . . . . . . . 43
Kopplung. . . . . . . . . . . . . . . . . . . . . . . . . . . .15
Korelation . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
Kovarianz . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
Bedinsystem . . . . . . . . . . . . . . . . . . . . . . . . . 39
L
E
Langzeitverhalten. . . . . . . . . . . . . . . . . . . .44
Laplacetransformierte. . . . . . . . . . . . . . . .32
abgeschlossen . . . . . . . . . . . . . . . . . . . . . . . . 44
aperiodisch . . . . . . . . . . . . . . . . . . . . . . . . . . 44
Equilibrium . . . . . . . . . . . . . . . . . . . . . . . . . 43
Ereignisfeld . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
Erwartungswert . . . . . . . . . . . . . . . . . . . . . 20
Erzeugende Funktion . . . . . . . . . . . . . . . . 30
Erzeuger
einer σ-Algebra . . . . . . . . . . . . . . . . . . . 5
Experiment
Laplace- . . . . . . . . . . . . . . . . . . . . . . . . . . 6
M
Markoweigenschaft . . . . . . . . . . . . . . . . . . 39
Markowkette . . . . . . . . . . . . . . . . . . . . . . . . 39
Maß
invariantes . . . . . . . . . . . . . . . . . . . . . . 43
Median . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
Merkmalsraum . . . . . . . . . . . . . . . . . . . . . . . 4
Modalwert. . . . . . . . . . . . . . . . . . . . . . . . . . .19
F
Faltung
auf R. . . . . . . . . . . . . . . . . . . . . . . . . . . .28
Formel
Bayessche . . . . . . . . . . . . . . . . . . . . . . . 13
totale Wahrscheinlichkeit . . . . . . . . 13
Funktion
erzeugende . . . . . . . . . . . . . . . . . . . . . . 30
N
Normalapproximation . . . . . . . . . . . . . . . 34
P
P-fs. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
periodisch . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
Poisson-Prozess . . . . . . . . . . . . . . . . . . . . . . 36
Poisson-Punktprozess . . . . . . . . . . . . . . . . 36
G
Gesetz der großen Zahl
schwaches . . . . . . . . . . . . . . . . . . . . . . . 33
starkes . . . . . . . . . . . . . . . . . . . . . . . . . . 33
Gleichgewichtsverteilung . . . . . . . . . . . . . 43
Q
Quantil . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
I
S
integrierbar
Satz
46
von der Poissonapproximation . . . 18
stochastisch unabhängig . . . . . . . . . . . . . 14
Zufallsvariablen . . . . . . . . . . . . . . . . . 14
stochastische Matrix . . . . . . . . . . . . . . . . . 16
Streuung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
V
Varianz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
von Summen . . . . . . . . . . . . . . . . . . . . 25
Verteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
Beta- . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
Binomial- . . . . . . . . . . . . . . . . . . . . . . . . 9
Exponential- . . . . . . . . . . . . . . . . . . . . 10
Gamma- . . . . . . . . . . . . . . . . . . . . . . . . 11
Geometrische- . . . . . . . . . . . . . . . . . . . . 9
Gleich- . . . . . . . . . . . . . . . . . . . . . . . . . . 10
Gleichgewichts- . . . . . . . . . . . . . . . . . . 43
hypergeometrische . . . . . . . . . . . . . . . 17
Normal- . . . . . . . . . . . . . . . . . . . . . . . . . 10
Poisson- . . . . . . . . . . . . . . . . . . . . . . . . . . 9
Verteilungsfunktion . . . . . . . . . . . . . . . . . . 11
W
Wahrscheinlichkeit
bedingte. . . . . . . . . . . . . . . . . . . . . . . . .13
Wahrscheinlichkeitsdichte . . . . . . . . . . . . 10
Wahrscheinlichkeitsmaß . . . . . . . . . . . . . . . 6
Wahrscheinlichkeitsraum . . . . . . . . . . . . . . 4
Z
Zähldichte . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
zufällige Summe . . . . . . . . . . . . . . . . . . . . . 31
Zufallsvariable . . . . . . . . . . . . . . . . . . . . . . . . 7
47
Logbuch
01.
02.
03.
04.
05.
06.
07.
08.
09.
10.
11.
12.
13.
14.
15.
16.
17.04,
19.04,
24.04,
26.04,
03.05,
08.05,
10.05,
15.05,
22.05,
24.05,
31.05,
05.06,
12.06,
14.06,
19.06,
21.06,
3–5
5–8
8–10
10–14
14–16
16–18
18–21
21–24
24–26
26–29
29–32
32–34
34–38
38–41
41–43
43–45
48
Herunterladen