Formelsammlung DWT - Benestar in Space

Werbung
Formelsammlung DWT
Benedikt Seidl
Sommersemester 2017
12. August 2017
Inhaltsverzeichnis
1 Diskrete Wahrscheinlichkeitsräume
3
1.1
Grundlagen . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3
1.2
Bedingte Wahrscheinlichkeiten . . . . . . . . . . . . . . . . . .
5
1.3
Unabhängigkeit . . . . . . . . . . . . . . . . . . . . . . . . . .
6
1.4
Zufallsvariablen . . . . . . . . . . . . . . . . . . . . . . . . . .
7
1.5
Wichtige diskrete Verteilungen . . . . . . . . . . . . . . . . . . 11
1.6
Abschätzen von Wahrscheinlichkeiten . . . . . . . . . . . . . . 12
1.7
Erzeugende Funktionen . . . . . . . . . . . . . . . . . . . . . . 14
2 Kontinuierliche Wahrscheinlichkeitsräume
16
2.1
Einführung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.2
Wichtige stetige Verteilungen . . . . . . . . . . . . . . . . . . 19
2.3
Mehrere kontinuierliche Zufallsvariablen
2.4
Zentraler Grenzwertsatz . . . . . . . . . . . . . . . . . . . . . 22
3 Statistik
. . . . . . . . . . . . 20
24
1
3.1
Einführung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3.2
Schätzvariablen . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3.3
Konfidenzintervalle . . . . . . . . . . . . . . . . . . . . . . . . 25
3.4
Testen von Hypothesen . . . . . . . . . . . . . . . . . . . . . . 26
4 Stochastische Prozesse
28
4.1
Einführung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
4.2
Prozesse mit diskreter Zeit . . . . . . . . . . . . . . . . . . . . 28
5 Liste der Theoreme
32
2
Kapitel 1
Diskrete
Wahrscheinlichkeitsräume
1.1
Grundlagen
Definition 1.1 (Wahrscheinlichkeitsraum)
1. Diskreter Wahrscheinlichkeitsraum definiert durch Ereignismenge Ω
Ω := {ω1 , ω2 , . . .}
2. (Elementar-)Wahrscheinlichkeit Pr[ωi ] ∈ [0, 1]
3. Ereignis E ⊆ Ω mit Wahrscheinlichkeit Pr[E]
Pr[E] :=
X
Pr[ω]
ω∈E
Ē heißt komplementäres Ereignis zu E.
Auf Ereignisse können die bekannten Mengenoperationen angewandt werden.
3
Definition 1.4 (Relative Häufigkeit)
absolute Häufigkeit von E
Anzahl aller Beobachtungen
Anzahl Eintreten von E
=
Anzahl aller Beobachtungen
relative Häufigkeit von E :=
Definition 1.5 (Endlicher Wahrscheinlichkeitsraum)
Ω = {ω1 , . . . , ωn } heißt endlicher Wahrscheinlichkeitsraum.
Bei unendlichen Wahrscheinlichkeitsräumen wird im Allgemeinen nur Ω = N0
betrachtet.
Lemma 1.8 (Eigenschaften von Ereignissen und Additionssatz)
Ereignisse A und B
1. Pr[∅] = 0, Pr[Ω] = 1
2. Pr[A] ∈ [0, 1]
3. Pr[Ā] = 1 − Pr[A]
4. A ⊆ B ⇒ Pr[A] ≤ Pr[B]
5. Ereignisse A1 , . . . , An paarweise disjunkt
"
Pr
n
[
#
Ai =
n
X
i=1
Pr[Ai ]
i=1
Der Additionssatz gilt auch für unendliche Ereignismengen (n = ∞).
Satz 1.9 (Siebformel)
Ereignisse A1 , . . . , An
"
Pr
n
[
#
Ai =
i=1
n
X
i=1
+ (−1)l−1
+
X
Pr[Ai ] −
Pr[Ai1 ∩ Ai2 ] ± . . .
1≤i1 <i2 ≤n
X
Pr[Ai1 ∩ . . . ∩ Ail ] ± . . .
1≤i1 <...<il ≤n
n−1
(−1)
Pr[A1 ∩ . . .
∩ An ]
Die Siebformel ist auch bekannt als Satz von Poincaré-Sylvester.
4
Korollar 1.10 (Boolesche Ungleichung)
Ereignisse A1 , . . . , An
"
Pr
n
[
#
Ai ≤
i=1
n
X
Pr[Ai ]
i=1
Die Boolesche Ungleichung gilt auch für unendliche Ereignismengen (n = ∞).
1.2
Bedingte Wahrscheinlichkeiten
Definition 1.12 (Bedingte Wahrscheinlichkeit)
Ereignisse A und B mit Pr[B] > 0
Pr[A|B] :=
Pr[A ∩ B]
Pr[B]
Falls B ⊆ Ω und Pr[B] > 0, dann bilden die Wahrscheinlichkeiten Pr[·|B]
einen Wahrscheinlichkeitsraum über Ω.
Satz 1.16 (Multiplikationssatz)
Ereignisse A1 , . . . , An mit Pr[A1 ∩ . . . ∩ An ] > 0
Pr[A1 ∩. . .∩An ] = Pr[A1 ]·Pr[A2 |A1 ]·Pr[A3 |A1 ∩A2 ]·. . .·Pr[An |A1 ∩. . .∩An−1 ]
Satz 1.18 (Satz der totalen Wahrscheinlichkeit)
Ereignisse A1 , . . . , An paarweise disjunkt, B ⊆ A1 ∪ . . . ∪ An
Pr[B] =
n
X
Pr[B|Ai ] · Pr[Ai ]
i=1
Der Satz der totalen Wahrscheinlichkeit gilt auch für unendliche Ereignismengen (n = ∞).
5
Satz 1.19 (Satz von Bayes)
Ereignisse A1 , . . . , An paarweise disjunkt mit Pr[Ai ] > 0, B ⊆ A1 ∪ . . . ∪ An
mit Pr[B] > 0
Pr[Ai |B] =
Pr[B|Ai ] · Pr[Ai ]
Pr[Ai ∩ B]
= Pn
Pr[B]
j=1 Pr[B|Aj ] · Pr[Aj ]
Der Satz von Bayes gilt auch für unendliche Ereignismengen (n = ∞).
1.3
Unabhängigkeit
Definition 1.21 (Unabhängigkeit zweier Ereignisse)
Ereignisse A und B heißen unabhängig, wenn gilt
Pr[A ∩ B] = Pr[A] · Pr[B]
Falls Pr[B] > 0 gilt außerdem
Pr[A] =
Pr[A ∩ B]
= Pr[A|B]
Pr[B]
Definition 1.22 (Unabhängigkeit von Ereignismengen)
Ereignisse A1 , . . . , An heißen unabhängig, wenn für alle Teilmengen I = {i1 , . . . , ik } ⊆
[n] gilt
Pr[Ai1 ∩ . . . ∩ Aik ] = Pr[Ai1 ] · . . . · Pr[Aik ]
Lemma 1.23
Ereignisse A1 , . . . , An paarweise verschieden
A1 , . . . , An genau dann unabhängig, wenn für alle (s1 , . . . , sn ) ∈ {0, 1}n gilt
Pr[As11 ∩ . . . ∩ Asnn ] = Pr[As11 ] · . . . · Pr[Asnn ]
6
mit A0i = Āi und A1i = Ai .
Lemma 1.24
Ereignisse A, B und C unabhängig
Dann sind auch A ∩ B und C bzw. A ∪ B und C unabhängig.
1.4
Zufallsvariablen
Definition 1.25
Wahrscheinlichkeitsraum auf Ergebnismenge Ω
X : Ω → R heißt (numerische) Zufallsvariable
Eine Zufallsvariable X über einer endlichen oder abzählbar unendlichen Ergebnismenge Ω heißt diskret und hat den Wertebereich WX
WX := X(Ω) = {x ∈ R : ∃ω ∈ Ω.X(ω) = x}
Anstelle von Pr[X −1 (x)] schreibt man oft Pr[X = x]. Außerdem gilt Pr[X ≤
x] = Pr[{ω ∈ Ω : X(ω) ≤ x}].
Definition 1.27
• (diskrete) Dichtefunktion der Zufallsvariablen X
fX : R → [0, 1], x 7→ Pr[X = x]
• Verteilungsfunktion der Zufallsvariablen X
FX : R → [0, 1], x 7→ Pr[X ≤ x]
Definition 1.29 (Erwartungswert)
Zu einer Zufallsvariable X ist der Erwartungswert E[X] definiert durch
E[X] :=
X
x · Pr[X = x] =
x∈WX
X
ω∈Ω
7
X(ω) · Pr[ω]
falls
P
x∈WX
|x| · Pr[X = x] konvergiert.
Satz 1.32 (Monotonie des Erwartungswerts)
Zufallsvariablen X und Y über Wahrscheinlichkeitsraum Ω mit X(ω) ≤ Y (ω)
für alle ω ∈ Ω
Dann gilt E[X] ≤ E[Y ].
Satz 1.33 (Linearität des Erwartungswerts)
Zufallsvariable X, a, b ∈ R
E[a · X + b] = a · E[X] + b
Satz 1.34
Zufallsvariable X mit WX ⊆ N0
E[X] =
∞
X
Pr[X ≥ i]
i=1
Definition 1.35 (Bedingte Zufallsvariable)
Zufallsvariable X, Ereignis A mit Pr[A] > 0
Die bedingte Zufallsvariable X|A besitzt die Dichte
fX|A (x) := Pr[X = x|A] =
Pr[X −1 (x) ∩ A]
Pr[A]
Der Erwartungswert E[X|A] ist dann
E[X|A] =
X
x · Pr[X = x|A]
x∈WX
Satz 1.36 (Satz des totalen Erwartungswerts)
Zufallsvariable X, Ereignisse Ai , . . . , An paarweise disjunkt mit A1 ∪ . . . ∪
An = Ω und Pr[Ai ] > 0
E[X] =
n
X
E[X|Ai ] · Pr[Ai ]
i=1
8
Definition 1.38 (Varianz)
Zu einer Zufallsvariable X mit µ = E[X] ist die Varianz Var[X] definiert
durch
X
Var[X] := E[(X − µ)2 ] =
(x − µ)2 · Pr[X = x]
x∈WX
Die Größe σ :=
p
Var[X] heißt Standardabweichung von X.
Satz 1.39
Zufallsvariable X
Var[X] = E[X 2 ] − E[X]2
Satz 1.41
Zufallsvariable X, a, b ∈ R
Var[a · X + b] = a2 · Var[X]
Definition 1.42 (Momente)
Zu einer Zufallsvariable X heißt E[X k ] das k-te Moment und E[(X − E[X])k ]
das k-te zentrale Moment.
Definition 1.44 (Gemeinsame Dichte und Verteilung)
Die gemeinsame Dichte der Zufallsvariablen X und Y ist definiert durch
fX,Y (x, y) := Pr[X = x, Y = y] = Pr[X −1 (x) ∩ Y −1 (y)]
Die Funktionen fX und fY heißen Randdichten
fX (x) =
X
fX,Y (x, y) bzw. fY (y) =
x∈WY
X
fX,Y (x, y)
x∈WX
Die gemeinsame Verteilung von X und Y ist definiert durch
FX,Y := Pr[X ≤ x, Y ≤ y] = Pr[{ω ∈ Ω : X(ω) ≤ x ∧ Y (ω) ≤ y}]
9
Die Funktionen FX und FY heißen Randverteilungen
FX (x) =
X
fX (x0 ) bzw. FY (y) =
x0 ≤x
X
fY (y 0 )
y 0 ≤y
Definition 1.45 (Unabhängigkeit von Zufallsvariablen)
Zufallsvariablen X1 , . . . , Xn heißen unabhängig, wenn für alle (x1 , . . . , xn ) ∈
WX1 × . . . × WXn gilt
Pr[X1 = x1 , . . . , Xn = xn ] = Pr[X1 = x1 ] · . . . · Pr[Xn = xn ]
Satz 1.46
Zufallsvariablen X1 , . . . , Xn , Mengen S1 , . . . , Sn mit Si ⊆ WXi
Dann sind die Ereignisse Xi ∈ Si“ unabhängig.
”
Satz 1.47
Funktionen f1 , . . . , fn mit fi : R → R
Wenn die Zufallsvariablen X1 , . . . , Xn unabhängig sind, dann gilt dies auch
für f1 (X1 ), . . . , fn (Xn ).
Satz 1.49
Zufallsvariablen X und Y unabhängig, Z := X + Y
fZ (z) =
X
fX (x) · fY (z − x)
x∈Wx
Satz 1.50 (Linearität des Erwartungswerts)
Zufallsvariablen X1 , . . . , Xn und X := a1 X1 + . . . + an Xn mit a1 , . . . , an ∈ R
E[X] = a1 E[X1 ] + . . . + an E[Xn ]
Satz 1.52 (Multiplikativität des Erwartungswerts)
Zufallsvariablen X1 , . . . , Xn unabhängig
E[X1 · . . . · Xn ] = E[X1 ] · . . . · E[Xn ]
10
Definition 1.53 (Indikatorvariable)
Zu einem Ereignis A ist die Indikatorvariable IA definiert als
(
1 falls A eintritt
IA :=
0 sonst
Dabei gilt E[IA ] = Pr[A] und E[IA1 · . . . · IAn ] = Pr[A1 ∩ . . . ∩ An ]
Satz 1.54
Zufallsvariablen X1 , . . . , Xn unabhängig und X := X1 + . . . + Xn
Var[X] = Var[X1 ] + . . . + Var[Xn ]
1.5
Wichtige diskrete Verteilungen
Definition 1.55 (Bernoulli-Verteilung)
Indikatorvariable X mit WX = {0, 1} und Dichte
(
p
fX (x) =
1−p
für x = 1
für x = 0
heißt Bernoulli-verteilt mit Erfolgswahrscheinlichkeit p. Dabei gilt
E[X] = p und Var[X] = p(1 − p)
Definition 1.55 (Binomialverteilung)
Zufallsvariable X := X1 +. . .+Xn als Summe von n unabhängigen, Bernoulliverteilten Zufallsvariablen mit gleicher Erfolgswahrscheinlichkeit p. Dann
heißt X binomialverteilt mit Parametern n und p
X ∼ Bin(n, p)
Es gilt WX = {0, . . . , n} und die Dichte ist
11
n x
b(x; n, p) := fX (x) =
p (1 − p)n−x
x
Ferner gilt
E[X] = np und Var[X] = np(1 − p)
Satz 1.56
Wenn X ∼ Bin(nx , p) und Y ∼ Bin(ny , p) unabhängig sind, dann gilt für
Z := X + Y , dass Z ∼ Bin(nx + ny , p).
Definition 1.57 (Geometrische Verteilung)
Eine geometrisch verteilte Zufallsvariable X mit Erfolgswahrscheinlichkeit
p ∈ (0, 1] hat die Dichte
fX (i) = p(1 − p)i−1 für i ∈ N
Dabei gilt
E[X] =
1−p
1
und Var[X] =
p
p2
Zufallsvariablen, die geometrisch verteilt sind, nennt man auch gedächtnislos.
Satz 1.59 (Summe von Poisson-verteilten Zufallsvariablen)
Zufallsvariablen X und Y unabhängig mit X ∼ Po(λ) und Y ∼ Po(µ)
Z := X + Y ∼ Po(λ + µ)
1.6
Abschätzen von Wahrscheinlichkeiten
Satz 1.60 (Markov-Ungleichung)
Zufallsvariable X ≥ 0, t ∈ R mit t > 0
12
Pr[X ≥ t] ≤
E[X]
t
Äquivalent dazu
Pr[X ≥ t · E[X]] ≤
1
t
Satz 1.62 (Chebyshev-Ungleichung)
Zufallsvariable X, t ∈ R mit t > 0
Pr[|X − E[X]| ≥ t] ≤
Var[X]
t2
Äquivalent dazu
h
i
p
1
Pr |X − E[X]| ≥ t Var[X] ≤ 2
t
Satz 1.63 (Gesetz der großen Zahlen)
Zufallsvariable X, ε, δ > 0, n ≥ Var[X]
εδ 2
Zufallsvariablen X1 , . . . , Xn unabhängig mit gleicher Verteilung wie X, Z :=
X1 +...+Xn
n
Pr [|Z − E[X]| ≥ δ] ≤ ε
Satz 1.64 (Untere Chernoff-Schranke)
Unabhängige, Bernoulli-verteilte Zufallsvariablen X1 , . . . , Xn mit Pr[Xi =
1] = pi und Pr[Xi = 0] = 1 − pi
X :=
Pn
i=1
Xi und µ = E[X] =
Pn
i=1
pi , sowie δ > 0
Pr[X ≥ (1 + δ) · µ] ≤
13
eδ
(1 + δ)1+δ
µ
Satz 1.66 (Obere Chernoff-Schranke)
Unabhängige, Bernoulli-verteilte Zufallsvariablen X1 , . . . , Xn mit Pr[Xi =
1] = pi und Pr[Xi = 0] = 1 − pi
X :=
Pn
i=1
Xi und µ = E[X] =
Pn
i=1
pi , sowie 0 < δ < 1
Pr[X ≤ (1 − δ) · µ] ≤
e−δ
(1 − δ)1−δ
µ
Korollar 1.68
Unabhängige, Bernoulli-verteilte Zufallsvariablen X1 , . . . , Xn mit Pr[Xi =
1] = pi und Pr[Xi = 0] = 1 − pi
X :=
Pn
i=1
Xi und µ = E[X] =
1. Pr[X ≥ (1 + δ) · µ] ≤ e
Pn
i=1
−µδ 2/
3
2. Pr[X ≤ (1 − δ) · µ] ≤ e
−µδ 2/
2
−µδ 2/
3
3. Pr[|X − µ| ≥ δµ] ≤ 2e
4. Pr[X ≥ (1 + δ) · µ] ≤
pi
für alle 0 < δ ≤ 1
für alle 0 < δ ≤ 1
für alle 0 < δ ≤ 1
(1+δ)·µ
e
1+δ
5. Pr[X ≥ t] ≤ 2−t für t ≥ 2eµ
1.7
Erzeugende Funktionen
Definition 1.70 (Wahrscheinlichkeitserzeugende Funktion)
Zufallsvariable X mit WX ⊆ N0
Wahrscheinlichkeitserzeugende Funktion GX definiert durch
GX (s) :=
∞
X
Pr[X = k] · sk = E[sX ]
k=0
Satz 1.71 (Eindeutigkeit der wahrscheinlichkeitserzeugenden Funktion)
Die Dichte und Verteilung einer Zufallsvariablen X mit WX ⊆ N0 sind durch
ihre wahrscheinlichkeitserzeugenden Funktionen eindeutig bestimmt.
14
Definition 1.74 (Momenterzeugende Funktion)
Zufallsvariable X
Momenterzeugende Funktion MX definiert durch
Xs
MX (s) := E[e
]=
∞
X
E[X i ]
i=0
i!
· si
Falls WX ⊆ N0
MX (s) = E[eXs ] = E[(es )X ] = GX (es )
Satz 1.75 (Erzeugende Funktion einer Summe)
Zufallsvariablen X1 , . . . , Xn unabhängig, Z := X1 + . . . + Xn
GZ (s) = GX1 (s) · . . . · GXn (s)
Ebenso gilt
MZ (s) = MX1 (s) · . . . · MXn (s)
Satz 1.77 (Zufällige Summen)
Zufallsvariablen X1 , . . . , XN unabhängig und identisch verteilt mit wahrscheinlichkeitserzeugender Funktion GX (s)
N ist ebenfalls eine unabhängige Zufallsvariable mit wahrscheinlichkeitserzeugender Funktion GN (s)
Dann besitzt Z := X1 +. . .+XN die wahrscheinlichkeitserzeugende Funktion
GZ (s) = GN (GX (s)).
15
Kapitel 2
Kontinuierliche
Wahrscheinlichkeitsräume
2.1
Einführung
Definition 2.79 (Kontinuierliche Zufallsvariablen)
Kontinuierliche bzw. stetige Zufallsvariable X und ihr zugrunde liegender
kontinuierlicher (reeller) Wahrscheinlichkeitsraum sind definiert durch eine
integrierbare Dichtefunktion fX : R → R+
0
Z+∞
fX (x) dx = 1
−∞
Zu jeder Dichtefunktion fX gehört eine Verteilungsfunktion FX
Zx
FX (x) := Pr[X ≤ x] =
fX (t) dt
−∞
Die Eigenschaften der Verteilungsfunktion sind
16
• FX ist stetig und monoton steigend
• lim FX (x) = 0 und lim FX (x) = 1
x→−∞
x→∞
• Pr[a < X ≤ b] = FX (b) − FX (a)
S
Eine Menge A ⊆ R mit A = k Ik und Ik abzählbar viele disjunkte Intervalle
beliebiger Art heißt Ereignis. Ein Ereignis tritt an, wenn X einen Wert aus
A annimmt.
Z
fX (x) dx =
Pr[A] =
XZ
A
k
fX (x) dx
Ik
Definition 2.82 (σ-Algebra)
Menge Ω, Menge A ⊆ P(Ω) heißt σ-Algebra über Ω, wenn
E1 Ω ∈ A
E2 A ∈ A ⇒ Ā ∈ A
E3 (∀n ∈ N : An ∈ A) ⇒
∞
S
An ∈ A
n=1
Definition 2.83 (Wahrscheinlichkeitsraum, Kolmogrov-Axiome)
Menge Ω, Menge A ist σ-Algebra über Ω
Abbildung Pr[.] : A → [0, 1] heißt Wahrscheinlichkeitsmaß, wenn
W1 Pr[Ω] = 1
W2 Ereignisse A1 , A2 , . . . paarweise disjunkt
Pr
"∞
[
#
Ai =
i=1
∞
X
Pr[Ai ]
i=1
Für ein Ereignis A ∈ A heißt Pr[A] Wahrscheinlichkeit von A.
Ein Wahrscheinlichkeitsraum ist definiert durch das Tupel (Ω, A, Pr).
17
Lemma 2.84
• Pr[∅] = 0, Pr[Ω] = 1
• 0 ≤ Pr[A] ≤ 1
• Pr[Ā] = 1 − Pr[A]
• A ⊆ B ⇒ Pr[A] ≤ Pr[B]
• (Additionssatz) Ereignisse A1 , . . . , An paarweise disjunkt
"
Pr
n
[
#
Ai =
n
X
i=1
Pr[Ai ]
i=1
Der Additionssatz gilt auch für unendliche Ereignismengen (n = ∞).
Definition 2.88 (Erwartungswert und Varianz)
Kontinuierliche Zufallsvariable X
Z+∞
E[X] =
t · fX (t) dt
−∞
Falls
R +∞
−∞
|t| · fX (t) dt existiert
Var[X] = E (X − E[X])2 =
Z+∞
(t − E[X])2 · fX (t) dt
−∞
Falls E [(X − E[X])2 ] existiert
Lemma 2.89
Kontinuierliche Zufallsvariable X, Y := g(X)
Z+∞
E[Y ] =
g(t) · fX (t) dt
−∞
18
2.2
Wichtige stetige Verteilungen
Definition 2.91 (Normalverteilung)
Zufallsvariable X mit WX = R heißt normalverteilt mit Parametern µ ∈ R
und σ ∈ R+ , falls sie die Dichte ϕ(x; µ, σ) besitzt.
1
(x − µ)2
ϕ(x; µ, σ) = √ · exp −
2σ 2
σ 2π
Man schreibt auch X ∼ N (µ, σ 2 )
N (0, 1) heißt Standardnormalverteilung und die Dichte wird abgekürzt als
ϕ(x) := ϕ(x; 0, 1).
Die Verteilungsfunktion zu N (µ, σ 2 ) ist
1
Φ(x; µ, σ) := √ ·
σ 2π
Zx
(t − µ)2
exp −
dt
2σ 2
−∞
Diese Funktion heißt Gauß’sche Φ-Funktion und hat keine elementare Darstellung.
Satz 2.93 (Lineare Transformation der Normalverteilung)
Zufallsvariable X ∼ N (µ, σ 2 ), a ∈ R\{0}, b ∈ R
Dann ist Y := aX + b normalverteilt mit Y ∼ N (aµ + b, a2 σ 2 ).
Satz 2.95
Zufallsvariable X ∼ N (µ, σ 2 ). Dann gilt E[X] = µ und Var[X] = σ 2 .
Definition 2.96 (Exponentialverteilung)
Zufallsvariable X heißt exponentialverteilt mit Parameter λ > 0, falls sie die
Dichte f (x) besitzt.
(
λe−λx
f (x) =
0
19
falls x ≥ 0
sonst
Die entsprechende Verteilungsfunktion für x ≥ 0 ist
Zx
F (x) =
λe−λt dt = 1 − e−λx
0
Für x < 0 gilt F (x) = 0.
Außerdem gilt E[X] =
1
λ
und Var[X] =
1
.
λ2
Satz 2.97 (Skalierung exponentialverteilter Variablen)
Zufallsvariable X exponentialverteilt mit Parameter λ. Für a > 0 ist Y := aX
exponentialverteilt mit Parameter λa .
Satz 2.98 (Gedächtnislosigkeit)
Zufallsvariable X mit WX = R+ ist genau dann exponentialverteilt, wenn
für alle x, y > 0 gilt
Pr[X > x + y|X > y] = Pr[X > x]
2.3
Mehrere kontinuierliche Zufallsvariablen
Für kontinuierliche Zufallsvariablen X und Y wird der gemeinsame Wahrscheinlichkeitsraum durch die zugrunde liegende gemeinsame Dichtefunktion
fX,Y definiert mit
Z
∞
Z
∞
fX,Y (x, y) dx dy = 1
−∞
−∞
Für ein Ereignis A ⊆ R2 gilt
Z
Pr[A] =
fX,Y (x, y) dx dy
A
Definition 2.100 (Randverteilung und Randdichte)
Kontinuierliche Zufallsvariablen X und Y mit gemeinsamer Dichte fX,Y
20
Die Randverteilung der Variablen X ist gegeben durch
Z
x
Z
∞
FX (x) = Pr[X ≤ x] =
fX,Y (u, v) dv du
−∞
−∞
Analog ist die Randdichte von X
Z
∞
fX (x) =
fX,Y (x, v) dv
−∞
Entsprechende Definitionen gelten symmetrisch für Y .
Definition 2.101 (Unabhängigkeit)
Kontinuierliche Zufallsvariablen X und Y heißen unabhängig, wenn für alle
x, y ∈ R gilt:
Pr[X ≤ x, Y ≤ y] = Pr[X ≤ x] · Pr[Y ≤ y]
Äquivalent dazu
FX,Y (x, y) = FX (x) · FY (y)
und
fX,Y (x, y) = fX (x) · fY (y)
Für mehr als zwei Zufallsvariablen gelten die Definitionen analog.
Satz 2.102
Minimum exponentialverteilter Zufallsvariablen
Zufallsvariablen X1 , . . . , Xn unabhängig und exponentialverteilt mit Parametern λ1 , . . . , λn .
Dann ist auch X := min{X1 , . . . , Xn } exponentialverteilt mit Parameter
λ1 + . . . + λn .
21
Satz 2.103 (Poisson-Prozess)
Zufallsvariablen T1 , T2 , . . . unabhängig, X(t) := max{n ∈ N : T1 + . . . + Tn ≤
t}
Dann ist X(t) genau dann Poisson-verteilt mit Parameter tλ, wenn T1 , T2 , . . .
exponentialverteilt sind mit Parameter λ.
Satz 2.105 (Faltung)
Kontinuierliche Zufallsvariablen X und Y unabhängig.
Für Z := X + Y gilt
Z
∞
fX (x) · fY (z − x) dx
fZ (z) =
−∞
Satz 2.106 (Additivität der Normalverteilung)
Zufallsvariablen X1 , . . . , Xn unabhängig und normalverteilt mit Parametern
µi , σi , a1 , . . . , an ∈ R
Die Zufallsvariable Z := a1 X1 + . . . + an Xn ist normalverteilt mit Erwartungswert µ = a1 µ1 + . . . + an µn und Varianz σ 2 = a21 σ12 + . . . + a2n σn2 .
2.4
Zentraler Grenzwertsatz
Satz 2.108 (Zentraler Grenzwertsatz)
Zufallsvariablen X1 , . . . , Xn unabhängig mit gleicher Verteilung, Erwartunsgswert und Varianz von Xi existieren und sind µ bzw. σ 2 (σ 2 > 0), Zufallsvariable Yn := X1 + . . . + Xn
Die Zufallsvariablen
Zn :=
Yn − nµ
√
σ n
sind asymptotisch standardnormalverteilt, also Zn ∼ N (0, 1) für n → ∞.
Es gilt lim FZn (x) = Φ(x).
n→∞
22
Korollar 2.109 (Grenzwertsatz von de Moivre)
Zufallsvariablen X1 , . . . , Xn unabhängig Bernoulli-verteilt mit gleicher Erfolgswahrscheinlichkeit p, Zufallsvairalbe Hn := X1 + . . . + Xn
Dann gilt, dass die Verteilung der Zufallsvariablen
Hn − np
Hn∗ := p
np(1 − p)
für n → ∞ gegen die Standardnormalverteilung konvergiert.
Korollar 2.110
Zufallsvariable Hn ∼ Bin(n, p)
Die Verteilung von
/n konvergiert gegen N (p, p(1−p)/n ) für n → ∞.
Hn
Approximationen für die Binomialverteilung
1. Approximation durch die Poisson-Verteilung
2. Approximation durch die Chernoff-Schranken
3. Approximation durch die Normalverteilung
23
Kapitel 3
Statistik
3.1
Einführung
1. induktive Statistik : Messwerte =⇒ Gesetze
2. deskriptive Statistik : Aufbereitung und Analyse von Daten
3.2
Schätzvariablen
Definition 3.112 (Schätzvariable)
Zufallsvariable X mit Dichte f (x; ϑ)
Eine Schätzvariable oder kurz Schätzer für den Parameter ϑ der Dichte von X
ist eine Zufallsvariable, die aus mehreren (meist unabhängigen und identisch
verteilten) Stichprobenvariablen zusammengesetzt ist.
Ein Schätzer U heißt erwartungstreu, wenn E[U ] = ϑ gilt. Die Größe E[U −ϑ]
nennt man Bias der Schätzvariablen U .
Definition 3.113 (Mittlere quadratische Abweichung (MSE))
Schätzvariable U
Die mittlere quadratische Abweichung, kurz MSE für Mean Squared Error,
ist definiert durch
24
M SE := E[(U − ϑ)2 ]
Wenn U erwartungstreu ist, so folgt M SE = Var[U ].
Wenn die Schätzvariable A einen kleineren MSE besitzt als die Schätzvariable
B, so sagt man, dass a effizienter ist als B.
Eine Schätzvariable heißt konsistent im quadratischen Mittel, wenn M SE →
0 für n → ∞ gilt, wobei n den Umfang der Stichprobe beschreibt.
Definition 3.114 (Stichprobenmittel und Stichprobenvarianz)
Die Zufallsvariablen
n
X̄ :=
n
1 X
1X
Xi und S 2 :=
(Xi − X̄)2
n i=1
n − 1 i=1
heißen Stichprobenmittel und Stichprobenvarianz der Stichprobe X1 , . . . , Xn .
X̄ und S 2 sind erwartungstreue Schätzer für den Erwartungswert bzw. die
Varianz.
Definition 3.115 (Maximum-Likelihood-Schätzwert)
Ein Schätzwert ϑ̂ für den Parameter einer Verteilung f (x; ϑ) heißt MaximumLikelihood-Schätzwert (ML-Schätzwert) für eine Stichprobe ~x, wenn für alle
ϑ gilt
L(~x; ϑ) ≤ L(~x, ϑ̂)
3.3
Konfidenzintervalle
Für zwei Schätzer U1 und U2 mit
Pr[U1 ≤ ϑ ≤ U2 ] ≥ 1 − α
wird die Wahrscheinlichkeit 1−α als Konfidenzniveau bezeichnet und [U1 , U2 ]
heißt Konfidenzintervall.
25
Definition 3.118 (γ-Quantil)
Zufallsvariable X stetig mit Verteilung FX
Eine Zahl xγ mit FX (xγ ) = γ heißt gamma-Quantil von X.
Definition 3.119
Für die Standardnormalverteilung bezeichnet zγ das γ-Quantil.
3.4
Testen von Hypothesen
Stichprobe von n unabhängigen Stichprobenvariablen X1 , . . . , Xn mit derselben Verteilung wie die Zufallsvariable X
K := {~x ∈ Rn : ~x führt zu Ablehnung der Hypothese}
K heißt Ablehnungsbereich oder kritischer Bereich des Tests.
Wird ein einzelnes Intervall im Wertebereich einer Variablen T betrachtet,
spricht man von einem einseitigen bzw. zweiseitigen Test.
Die zu überprüfende Hypothese wird als H0 bezeichnet und heißt auch Nullhypothese.
Es gibt zwei Arten von Fehlern bei statistischen Tests
• Fehler 1. Art : H0 gilt, aber wird abgelehnt
• Fehler 2. Art : H0 gilt nicht, aber wird angenommen
Die Wahrscheinlichkeit für den Fehler 1. Art wird mit α bezeichnet und heißt
Signifikanzniveau des Tests.
Die Gütefunktion g gibt an, mit welcher Wahrscheinlichkeit ein Test die Nullhypothese verwirft. Sie ist definiert als
g(ϑ) = Pr[T ∈ K]
ϑ
26
Es ist gibt einen ganzen Katalog hilfreicher Testverfahren für verschiedene
Zwecke, die im Skript oder anderer Literatur nachgeschlagen werden können.
27
Kapitel 4
Stochastische Prozesse
4.1
Einführung
Ein stochastischer Prozess ist eine Folge von Zufallsvariablen (Xt )t∈T , die ein
System zu verschiedenen Zeitpunkten t beschreiben. Ist T = N0 , so spricht
man von einem Prozess mit diskreter Zeit. Erlaubt man T = R+
0 , erhält man
einen Prozess mit kontinuierlicher Zeit.
4.2
Prozesse mit diskreter Zeit
Definition 4.123 (Markov-Kette)
Eine (endliche) Markov-Kette über der Zustandsmenge S = {0, . . . , n − 1}
besteht aus einer unendlichen Folge von Zufallsvariablen (Xt )t∈T mit WXt =
S sowie einer Startverteilung q0 ∈ R1×n .
Für jede Indexmenge I ⊆ {0, . . . , t − 1} und beliebige Zustände st ∈ S gilt
Pr[Xt+1 = st+1 |Xt = st , Xt−1 = st−1 , . . . , X0 = s0 ] = Pr[Xt+1 = st+1 |Xt = st ]
Sind die Werte pi,j := Pr[Xt+1 = j|Xt = i] von t unabhängig, so nennt man
28
die Markov-Kette (zeit)homogen. In diesem Fall definiert man die Übergansmatrix
durch P = (pi,j )0≤i,j<n . Wenn man S = N0 zulässt, so spricht man von einer
unendlichen Markov-Kette.
Der Wahrscheinlichkeitsraum einer Markov-Kette bis zum Zeitpunkt t0 ist die
Menge aller Läufe ~x = (x0 , . . . , xt0 ) ∈ Ω. Einen Lauf durch die Markov-Kette
bezeichnet man als Random Walk.
Die Variable
(k)
pi,j := Pr[Xt+k = j|Xt = i] = (P k )i,j
gibt die Wahrscheinlichkeit an, von Zustand i in k Schritten zu Zustand j zu
gelangen.
Definition 4.126 (Übergangszeit, Ankunftswahrscheinlichkeit)
Die Zufallsvariable
Ti,j := min{n ≥ 0|Xn = j, wenn X0 = i}
zählt die Anzahl an Schritten, die von Zustand i nach j benötigt werden.
Man bezeichnet Ti,j als Übergangszeit von i nach j. Wird j nie erreicht, ist
Ti,j = ∞.
Außerdem ist hi,j := E[Ti,j ] die erwartete Anzahl an Schritten von i nach j.
Die Wahrscheinlichkeit, von Zustand i in beliebig vielen Schritten nach j zu
gelangen, ist definiert als die Ankunftswahrscheinlichkeit fi,j := Pr[Ti,j < ∞].
Für i = j definieren wir Ti,i = 0 und somit auch hi,i = 0 und fi,i = 1.
Definition 4.127 (Rückkehrzeit, Rückkehrwahrscheinlichkeit)
Die Zufallsvariable
Ti := min{n ≥ 1|Xn = i, wenn X0 = i}
zählt die Anzahl an Schritten, die von Zustand i nach i zurückzukehren. Man
bezeichnet Ti als Rückkehrzeit von i.
29
Der Erwartungswert ist hi := E[Ti ] und die Wahrscheinlichkeit, dass Ti endlich ist, heißt Rückkehrwahrscheinlichkeit fi := Pr[Ti < ∞].
Lemma 4.129
Für die erwartete Übergangs-/Rückkehrzeiten gilt
hi,j = 1 +
X
pi,k hk,j für alle i 6= j
k6=j
hi = 1 +
X
pi,k hk,i
k6=i
Für die Ankunfts-/Rückkehrwahrscheinlichkeiten gilt
fi,j = pi,j +
X
pi,k fk,j für alle i 6= j
k6=j
fi = pi,i +
X
pi,k fk,i
k6=i
30
31
Kapitel 5
Liste der Theoreme
Kapitel 1 – Diskrete Wahrscheinlichkeitsräume
1.1
Definition – Wahrscheinlichkeitsraum . . . . . . . . . . . . . .
3
1.4
Definition – Relative Häufigkeit . . . . . . . . . . . . . . . . .
4
1.5
Definition – Endlicher Wahrscheinlichkeitsraum . . . . . . . .
4
1.8
Lemma – Eigenschaften von Ereignissen und Additionssatz . .
4
1.9
Satz – Siebformel . . . . . . . . . . . . . . . . . . . . . . . . .
4
1.10 Korollar – Boolesche Ungleichung . . . . . . . . . . . . . . . .
5
1.12 Definition – Bedingte Wahrscheinlichkeit . . . . . . . . . . . .
5
1.16 Satz – Multiplikationssatz . . . . . . . . . . . . . . . . . . . .
5
1.18 Satz – Satz der totalen Wahrscheinlichkeit . . . . . . . . . . .
5
1.19 Satz – Satz von Bayes . . . . . . . . . . . . . . . . . . . . . .
6
1.21 Definition – Unabhängigkeit zweier Ereignisse . . . . . . . . .
6
32
1.22 Definition – Unabhängigkeit von Ereignismengen . . . . . . . .
6
1.23 Lemma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6
1.24 Lemma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7
1.25 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7
1.27 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7
1.29 Definition – Erwartungswert . . . . . . . . . . . . . . . . . . .
7
1.32 Satz – Monotonie des Erwartungswerts . . . . . . . . . . . . .
8
1.33 Satz – Linearität des Erwartungswerts . . . . . . . . . . . . .
8
1.34 Satz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8
1.35 Definition – Bedingte Zufallsvariable . . . . . . . . . . . . . .
8
1.36 Satz – Satz des totalen Erwartungswerts . . . . . . . . . . . .
8
1.38 Definition – Varianz
. . . . . . . . . . . . . . . . . . . . . . .
9
1.39 Satz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9
1.41 Satz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9
1.42 Definition – Momente . . . . . . . . . . . . . . . . . . . . . . .
9
1.44 Definition – Gemeinsame Dichte und Verteilung . . . . . . . .
9
1.45 Definition – Unabhängigkeit von Zufallsvariablen . . . . . . . 10
1.46 Satz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.47 Satz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.49 Satz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.50 Satz – Linearität des Erwartungswerts . . . . . . . . . . . . . 10
33
1.52 Satz – Multiplikativität des Erwartungswerts . . . . . . . . . . 10
1.53 Definition – Indikatorvariable . . . . . . . . . . . . . . . . . . 11
1.54 Satz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.55 Definition – Bernoulli-Verteilung . . . . . . . . . . . . . . . . . 11
1.55 Definition – Binomialverteilung . . . . . . . . . . . . . . . . . 11
1.56 Satz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.57 Definition – Geometrische Verteilung . . . . . . . . . . . . . . 12
1.59 Satz – Summe von Poisson-verteilten Zufallsvariablen . . . . . 12
1.60 Satz – Markov-Ungleichung . . . . . . . . . . . . . . . . . . . 12
1.62 Satz – Chebyshev-Ungleichung . . . . . . . . . . . . . . . . . . 13
1.63 Satz – Gesetz der großen Zahlen . . . . . . . . . . . . . . . . . 13
1.64 Satz – Untere Chernoff-Schranke . . . . . . . . . . . . . . . . . 13
1.66 Satz – Obere Chernoff-Schranke . . . . . . . . . . . . . . . . . 14
1.68 Korollar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.70 Definition – Wahrscheinlichkeitserzeugende Funktion . . . . . 14
1.71 Satz – Eindeutigkeit der wahrscheinlichkeitserzeugenden Funktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.74 Definition – Momenterzeugende Funktion . . . . . . . . . . . . 15
1.75 Satz – Erzeugende Funktion einer Summe . . . . . . . . . . . 15
1.77 Satz – Zufällige Summen . . . . . . . . . . . . . . . . . . . . . 15
34
Kapitel 2 – Kontinuierliche Wahrscheinlichkeitsräume
2.79 Definition – Kontinuierliche Zufallsvariablen . . . . . . . . . . 16
2.82 Definition – σ-Algebra . . . . . . . . . . . . . . . . . . . . . . 17
2.83 Definition – Wahrscheinlichkeitsraum, Kolmogrov-Axiome
. . 17
2.84 Lemma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.88 Definition – Erwartungswert und Varianz . . . . . . . . . . . . 18
2.89 Lemma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.91 Definition – Normalverteilung . . . . . . . . . . . . . . . . . . 19
2.93 Satz – Lineare Transformation der Normalverteilung . . . . . . 19
2.95 Satz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.96 Definition – Exponentialverteilung . . . . . . . . . . . . . . . . 19
2.97 Satz – Skalierung exponentialverteilter Variablen . . . . . . . . 20
2.98 Satz – Gedächtnislosigkeit . . . . . . . . . . . . . . . . . . . . 20
2.100Definition – Randverteilung und Randdichte . . . . . . . . . . 20
2.101Definition – Unabhängigkeit . . . . . . . . . . . . . . . . . . . 21
2.102Satz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.103Satz – Poisson-Prozess . . . . . . . . . . . . . . . . . . . . . . 22
2.105Satz – Faltung . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.106Satz – Additivität der Normalverteilung . . . . . . . . . . . . 22
2.108Satz – Zentraler Grenzwertsatz . . . . . . . . . . . . . . . . . 22
2.109Korollar – Grenzwertsatz von de Moivre . . . . . . . . . . . . 23
35
2.110Korollar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
Kapitel 3 – Statistik
3.112Definition – Schätzvariable . . . . . . . . . . . . . . . . . . . . 24
3.113Definition – Mittlere quadratische Abweichung (MSE) . . . . . 24
3.114Definition – Stichprobenmittel und Stichprobenvarianz . . . . 25
3.115Definition – Maximum-Likelihood-Schätzwert . . . . . . . . . 25
3.118Definition – γ-Quantil . . . . . . . . . . . . . . . . . . . . . . 25
3.119Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
Kapitel 4 – Stochastische Prozesse
4.123Definition – Markov-Kette . . . . . . . . . . . . . . . . . . . . 28
4.126Definition – Übergangszeit, Ankunftswahrscheinlichkeit . . . . 29
4.127Definition – Rückkehrzeit, Rückkehrwahrscheinlichkeit . . . . 29
4.129Lemma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
36
Herunterladen