Wahrscheinlichkeitsrechnung Sommersemester 2008

Werbung
Wahrscheinlichkeitsrechnung
Sommersemester 2008
Kurzskript∗
Version 1.0
S. Döhler
1. Juli 2008
∗ In
diesem Kurzskript sind Begriffe und Ergebnisse aus der Lehrveranstaltung zusammengestellt.
Außerdem enthält das Skript möglicherweise Themen, die nicht Gegenstand der Vorlesung waren. Das Dokument befindet sich in laufender Überarbeitung. Für Verbesserungsvorschläge und
Fehlermeldungen (email: [email protected]) bin ich dankbar!
Inhaltsverzeichnis
1 Beschreibende Statistik
1.1 Statistische Grundbegriffe . . . . . . . . . . . . . . .
1.1.1 Grundgesamtheit und Stichprobe . . . . . . .
1.1.2 Merkmale und Merkmalsausprägungen . . . .
1.2 Skalen und Merkmalstypen . . . . . . . . . . . . . . .
1.3 Tabellarische und grafische Darstellungen . . . . . . .
1.3.1 Häufigkeiten . . . . . . . . . . . . . . . . . . .
1.3.2 Die empirische Verteilungsfunktion . . . . . .
1.3.3 Stabdiagramm . . . . . . . . . . . . . . . . .
1.4 Lagemaße . . . . . . . . . . . . . . . . . . . . . . . .
1.4.1 Median und Quantil . . . . . . . . . . . . . .
1.4.2 Stichprobenmittel . . . . . . . . . . . . . . . .
1.4.3 Ausreißerverhalten . . . . . . . . . . . . . . .
1.5 Streuungsmaße . . . . . . . . . . . . . . . . . . . . .
1.5.1 Spannweite und Quartilsabstand . . . . . . .
1.5.2 Stichprobenvarianz- und Standardabweichung
1.6 Grafische Darstellungen . . . . . . . . . . . . . . . .
1.6.1 Box-Plots . . . . . . . . . . . . . . . . . . . .
1.6.2 Histogramm . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3
3
3
3
3
3
3
3
4
4
4
4
4
4
4
4
4
4
4
2 Diskrete Wahrscheinlichkeitsräume und elementare Kombinatorik
2.1 Grundlagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2 Einfache Urnenmodelle (Kombinatorik) . . . . . . . . . . . . . .
2.2.1 Ziehen in Reihenfolge mit Zurücklegen . . . . . . . . . .
2.2.2 Ziehen in Reihenfolge ohne Zurücklegen . . . . . . . . . .
2.2.3 Ziehen ohne Reihenfolge mit Zurücklegen . . . . . . . . .
2.2.4 Ziehen ohne Reihenfolge ohne Zurücklegen . . . . . . . .
2.2.5 Die hypergeometrische Verteilung . . . . . . . . . . . . .
2.3 Einige diskrete Wahrscheinlichkeitsverteilungen . . . . . . . . .
2.3.1 Die Binomialverteilung . . . . . . . . . . . . . . . . . . .
2.3.2 Die Poissonverteilung . . . . . . . . . . . . . . . . . . . .
2.3.3 Die geometrische Verteilung . . . . . . . . . . . . . . . .
2.3.4 Die negative Binomialverteilung . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
5
5
6
6
6
6
6
6
6
6
6
6
6
3 Allgemeine Wahrscheinlichkeitsräume
3.1 Grundlagen . . . . . . . . . . . . . . . . . . .
3.2 Einige stetige Wahrscheinlichkeitsverteilungen
3.3 Bedingte Wahrscheinlichkeiten . . . . . . . . .
3.4 Unabhängigkeit . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
7
7
7
9
9
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Inhaltsverzeichnis
4 Zufallsvariablen
4.1 Einführung . . . . . . . . . . . . . . . . .
4.2 Unabhängige ZV’en und mehrdimensionale
4.2.1 Mehrdimensionale ZV’en . . . . . .
4.3 Quantilfunktion . . . . . . . . . . . . . . .
4.4 Summen unabhängiger ZV’en . . . . . . .
4.5 Erwartungswert, Varianz und Kovarianz .
4.6 Transformationen von ZV’en . . . . . . . .
5 Grenzwertsätze
5.1 Das Gesetz großer Zahlen . . .
5.2 Der zentrale Grenzwertsatz . . .
5.3 Anwendungen . . . . . . . . . .
5.3.1 Monte-Carlo Simulation
.
.
.
.
.
.
.
.
.
.
.
.
3
.
.
.
.
.
.
.
.
.
.
.
.
. . . .
ZV’en
. . . .
. . . .
. . . .
. . . .
. . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
10
10
10
10
11
11
12
13
.
.
.
.
14
14
14
15
15
1 Beschreibende Statistik
1.1 Statistische Grundbegriffe
1.1.1 Grundgesamtheit und Stichprobe
1.1.2 Merkmale und Merkmalsausprägungen
1.2 Skalen und Merkmalstypen
1.3 Tabellarische und grafische Darstellungen
1.3.1 Häufigkeiten
1.3.2 Die empirische Verteilungsfunktion
Definition 1.1 (Indikatorfunktion)
Für A ⊂ R sei die Funktion 1A : R → {0, 1} definiert durch
(
1 x∈A
1A (x) :=
0 x∈
/A
1A heißt Indikatorfunktion der Menge A.
Definition 1.2 (Empirische Verteilungsfunktion)
Für x1 , . . . , xn ∈ R wird die empirische Verteilungsfunktion Fn : R → [0, 1] definiert durch
n
Fn (x) :=
1X
1(−∞,x] (xi )
n i=1
Bemerkung 1.3
Seien x1 , . . . , xn ∈ R. Dann hat die empirische Verteilungsfunktion Fn die folgenden Eigenschaften:
(a) Fn ist eine monoton wachsende Treppenfunktion.
(b) Fn (x) = 0 für x < min{x1 , . . . , xn } und Fn (x) = 1 für x ≥ max{x1 , . . . , xn }
(c)
– Fn (x) ist der relative Anteil der Beobachtungen im Intervall (−∞, x].
– 1 − Fn (x) ist der relative Anteil der Beobachtungen im Intervall (x, ∞).
– Fn (y) − Fn (x) ist der relative Anteil der Beobachtungen im Intervall (x, y].
4
1 Beschreibende Statistik
1.3.3 Stabdiagramm
1.4 Lagemaße
1.4.1 Median und Quantil
1.4.2 Stichprobenmittel
1.4.3 Ausreißerverhalten
1.5 Streuungsmaße
1.5.1 Spannweite und Quartilsabstand
Definition 1.4 (Spannweite, Quartilsabstand)
Für x1 , . . . , xn ∈ R wird die Spannweite R und Quartilsabstand Q definiert als
R = x(n) − x(1)
Q=x
e0.75 − x
e0.25
1.5.2 Stichprobenvarianz- und Standardabweichung
Definition 1.5 (Stichprobenvarianz- und Standardabweichung)
Für x1 , . . . , xn ∈ R wird die Stichprobenvarianz s2n und empirische Standardabweichung sn
definiert als
n
1X
:=
(xi − x)2
n i=1
p
s := s2n
s2n
Bemerkung 1.6 (Verschiebungssatz)
Für x1 , . . . , xn ∈ R gilt
n
X
(xi − x)2 =
n
X
x2i − n · (x)2
bzw.
i=1
i=1
2
s = x2 − (x)2
1.6 Grafische Darstellungen
1.6.1 Box-Plots
1.6.2 Histogramm
5
2 Diskrete Wahrscheinlichkeitsräume und
elementare Kombinatorik
2.1 Grundlagen
Definition 2.1 (Grundraum, Ereignis)
Definition 2.2 (Ereignisse, Operationen)
Definition 2.3 ((Diskreter) W-Raum)
Sei Ω ein endlicher oder abzählbarer Grundraum. Eine Abbildung P : P ot(Ω) → [0, 1] heißt
Wahrscheinlichkeitsmaß bzw. Wahrscheinlichkeitsverteilung , wenn
(A1) P (Ω) = 1.
(A2) Für alle A ⊂ Ω gilt P (A) ≥ 0.
(A3) Für alle disjunkten A, B ⊂ Ω gilt P (A ∪ B) = P (A) + P (B).
(Ω, P ) heißt (diskreter) Wahrscheinlichkeitsraum.
Lemma 2.4
Sei (Ω, P ) diskreter Wahrscheinlichkeitsraum, seien A, B, Ai ∈ Ω. Dann:
(a) P (Ac ) = 1 − P (A), speziell P (∅) = 0
(b) A ⊂ B ⇒ P (A) ≤ P (B)
(c) P (A \ B) = P (A) − P (A ∩ B)
S
P
(d) Falls A1 , . . . , An paarweise disjunkt ⇒ P ( ni=1 Ai ) = ni=1 P (Ai )
S
P
(e) Für beliebige Mengen A1 , . . . , An gilt P ( ni=1 Ai ) ≤ ni=1 P (Ai )
(f ) P (A ∪ B) = P (A) + P (B) − P (A ∩ B)
(g) P (A) =
P
ω∈A
P ({ω})
Definition 2.5 (Wahrscheinlichkeitsfunktion)
Sei (Ω, P ) ein diskreter Wahrscheinlichkeitsraum. Die Abbildung ω 7→ P ({ω}) heißt Wahrscheinlichkeitsfunktion bzw. Zähldichte(funktion).
Schreibweise: Oft P (ω) statt P ({ω}).
6
2 Diskrete Wahrscheinlichkeitsräume und elementare Kombinatorik
2.2 Einfache Urnenmodelle (Kombinatorik)
Definition 2.6 (Laplacescher Wahrscheinlichkeitsraum)
Sei Ω ein endlicher Grundraum. Wenn alle ω ∈ Ω die gleiche Wahrscheinlichkeit P (ω) besitzen, dann heissen:
(a) P : (diskrete) Gleichverteilung auf Ω.
(b) (Ω, P ): Laplacescher W-raum
2.2.1 Ziehen in Reihenfolge mit Zurücklegen
2.2.2 Ziehen in Reihenfolge ohne Zurücklegen
2.2.3 Ziehen ohne Reihenfolge mit Zurücklegen
2.2.4 Ziehen ohne Reihenfolge ohne Zurücklegen
Identitäten für Binomialkoeffizienten
2.2.5 Die hypergeometrische Verteilung
2.3 Einige diskrete Wahrscheinlichkeitsverteilungen
Definition 2.7 (Diskrete Gleichverteilung)
Definition 2.8 (Hypergreometrische Verteilung)
2.3.1 Die Binomialverteilung
Definition 2.9 (Binomialverteilung)
2.3.2 Die Poissonverteilung
Definition 2.10 (Poisson-Verteilung)
2.3.3 Die geometrische Verteilung
Definition 2.11 (Geometrische Verteilung)
2.3.4 Die negative Binomialverteilung
7
3 Allgemeine Wahrscheinlichkeitsräume
3.1 Grundlagen
Definition 3.1 (σ-Algebra)
Definition 3.2 (Wahrscheinlichkeitsraum)
Definition 3.3 (Dichtefunktion, Verteilungsfunktion)
Lemma 3.4 (Eigenschaften von Verteilungsfunktionen)
3.2 Einige stetige Wahrscheinlichkeitsverteilungen
Definition 3.5 (Gleichverteilung)
Seien a, b ∈ R mit a < b. Dann ist die (stetige) Gleichverteilung (Rechteckverteilung) auf dem
Intervall [a, b] definiert durch die Dichtefunktion
f (x) =
1
· 1[a,b] (x)
b−a
Bezeichnungen: U ([a, b]), U (a, b), R(a, b)... (englisch: uniform distribution)
Definition 3.6 (Exponentialverteilung)
Sei λ > 0. Die Exponentialverteilung mit Parameter λ ist gegeben durch die Dichtefunktion
f (x) = λ · exp(−λx) · 1[0,∞) (x)
bzw. Verteilungsfunktion
F (x) = (1 − exp(−λx)) · 1[0,∞) (x)
Bezeichnung: Exp(λ)
Definition 3.7 (Normalverteilung)
Sei µ ∈ R, σ 2 > 0. Die Normalverteilung N (µ, σ 2 ) mit Parametern µ und σ 2 ist definiert
durch die Dichtefunktion
2 !
1
1 x−µ
(x ∈ R)
f (x) = √
· exp −
2
2
σ
2πσ
Speziell für µ = 0 und σ 2 = 1 heißt N (0, 1) Standardnormalverteilung. Die zugehörige Dichtebzw. Verteilungsfunktion werden mit ϕ bzw. Φ bezeichnet. Es ist
1
1 2
ϕ(x) = √ · exp − x
(x ∈ R)
2
2π
8
3 Allgemeine Wahrscheinlichkeitsräume
Bemerkung 3.8 (Eigenschaften der Normalverteilung)
Mit den Bezeichnungen aus der obigen Definition gilt
(a) ϕ ist symmetrisch zur y-Achse, d.h. ϕ(x) = ϕ(−x) (x ∈ R).
(b) Φ(x) = 1 − Φ(−x) (x ∈ R). Speziell gilt Φ(0) = 1/2.
(c) Sei Fµ,σ2 die Verteilungsfunktion von N (µ, σ 2 ). Dann gilt: Fµ,σ2 (x) = Φ( x−µ
).
σ
9
3 Allgemeine Wahrscheinlichkeitsräume
3.3 Bedingte Wahrscheinlichkeiten
Definition 3.9 (Bedingte Wahrscheinlichkeit)
Sei (Ω, A, P ) ein Wahrscheinlichkeitsraum, B ∈ A mit P (B) > 0. Für A ∈ A wird die
bedingte Wahrscheinlichkeit von A unter B definiert durch
P (A|B) :=
P (A ∩ B)
P (B)
Lemma 3.10 (Eigenschaften)
Folgerung 3.11 (Satz von der totalen Wahrscheinlichkeit)
Sei (Ω, A, P ) ein Wahrscheinlichkeitsraum, B1 , . . . , Bn ∈ A mit
S
• ni=1 Bi = Ω
• die Bi ’s sind paarweise disjunkt
• P (Bi ) > 0 für alle i = 1, . . . n.
Dann gilt für beliebiges Ereignis A ∈ A:
P (A) =
n
X
P (A|Bi ) · P (Bi )
i=1
Folgerung 3.12 (Bayessche Formel)
Unter den Bedingungen der obigen Folgerung gilt:
P (Bi ) · P (A|Bi )
P (Bi |A) = Pn
k=1 P (A|Bk ) · P (Bk )
3.4 Unabhängigkeit
Definition 3.13 (Unabhängigkeit von Ereignissen)
Sei (Ω, A, P ) ein Wahrscheinlichkeitsraum. Zwei Ereignisse A, B ∈ A heißen unabhängig,
wenn
P (A ∩ B) = P (A) · P (B)
10
4 Zufallsvariablen
4.1 Einführung
Definition 4.1 (Zufallsvariable)
Sei (Ω, A, P ) ein Wahrscheinlichkeitsraum. Eine Zufallsvariable (ZV’e) ist eine Abbildung
X : Ω → R.
Definition 4.2 (Verteilung von X unter P )
Sei (Ω, A, P ) ein Wahrscheinlichkeitsraum, X : Ω → R eine Zufallsvariable und B die Borelsche σ-Algebra auf R. Für A ∈ B definieren wir die Wahrscheinlichkeitsverteilung von X
durch
P X (A) := P (X ∈ A) := P ({ω ∈ Ω|X(ω) ∈ A})
Bezeichnungen: X hat Verteilung P X“, X ist verteilt wie P X“
”
”
Notationen: X ∼ P X , X ∼ P ,...
Definition 4.3 (Verteilungsfunktion)
Sei (Ω, A, P ) ein Wahrscheinlichkeitsraum, X : Ω → R eine Zufallsvariable mit Wahrscheinlichkeitsverteilung P X . Die Funktion F X R → [0, 1] mit
F X (x) := P X ((−∞, x]) = P (X ≤ x)
heißt die zur Verteilung P X gehörige Verteilungsfunktion.
Notationen: F X , FX , F , X ∼ F ,...
Sprechweisen:: F ist Verteilungsfunktion von X“, X ist nach F verteilt“, ...
”
”
4.2 Unabhängige ZV’en und mehrdimensionale ZV’en
Definition 4.4 (Unabhängigkeit)
Seien X, Y ZV’en auf einem Wahrscheinlichkeitsraum (Ω, A, P ). X und Y heißen (stochastisch) unabhängig, wenn für alle x, y ∈ R gilt
P (X ≤ x, Y ≤ y) = P (X ≤ x) · P (Y ≤ y)
4.2.1 Mehrdimensionale ZV’en
Definition 4.5 (Randverteilung, gemeinsame Verteilungsfunktion)
Seien X, Y ZV’en. Dann heißt die Funktion F : R2 → [0, 1]
F (x, y) := P (X ≤ x, Y ≤ y)
(x, y ∈ R)
gemeinsame Verteilungsfunktion von X und Y (Notationen: F , F(X,Y ) , F (X,Y ) ,...)
Die Funktionen FX (x) = P (X ≤ x) bzw. FY (y) = P (Y ≤ y) heißen Randverteilungen
(Randverteilungsfunktionen) von X bzw. Y .
11
4 Zufallsvariablen
Definition 4.6 (Randdichte, gemeinsame Dichtefunktion)
Seien X, Y ZV’en. Eine Funktion f : R2 → R+ heißt gemeinsame Dichte von X und Y , wenn
Z x Z y
f (u, v) du dv
(x, y ∈ R)
F (x, y) =
−∞
−∞
(Notationen: f , f(X,Y ) , f (X,Y ) ,...)
Die Funktionen
Z ∞
f (x, y) dy
bzw.
fX (x) =
Z
∞
fY (y) =
−∞
f (x, y) dx
−∞
heißen Randdichten von X bzw. Y .
Bemerkung 4.7 (Verteilungsfunktion und Dichte bei unabhängigen ZV’en)
Seien X, Y unabhängige ZV’en. Dann gilt
(a)
(b)
F(X,Y ) (x, y) = FX (x) · FY (y)
f(X,Y ) (x, y) = fX (x) · fY (y), falls die Dichtefunktionen existieren.
4.3 Quantilfunktion
Definition 4.8 (Quantilfunktion, Quantil)
Sei F : R → [0, 1] eine stetige und streng monoton steigende Verteilungsfunktion. Für p ∈
(0, 1) heißt
x
ep := F −1 (p)
das p-Quantil von F bzw. von der Wahrscheinlichkeitsverteilung, die zur Verteilungsfunktion
F gehört. Die Funktion F −1 : (0, 1) → R, p 7→ F −1 (p) heißt Quantilfunktion von F .
Bezeichnungen: xp , qp , ...
Folgerung 4.9 (Simulationslemma)
Sei F : R → [0, 1] eine stetige und streng monoton steigende Verteilungsfunktion.
(a) Sei Y ∼ U (0, 1), Z := F −1 (Y ). Dann ist Z ∼ F , d.h. die Verteilungsfunktion von Z ist
F.
(b) Sei X ∼ F , Z := F (X). Dann ist Z ∼ U (0, 1).
4.4 Summen unabhängiger ZV’en
Satz 4.10 (Faltungsformel für diskrete ZV’en)
Seien X, Y : Ω → Z unabhängige ZV’en. Dann gilt für k ∈ Z
X
X
P (X + Y = k) =
P (X = k − j) · P (Y = j) =
P (X = j) · P (Y = k − j)
j∈Z
j∈Z
Folgerung 4.11 (a) Seien X1 , . . . , Xn ∼ Bin(1, p) iid. Dann ist X1 + · · · + Xn ∼ Bin(n, p).
(b) Seien X ∼ P ois(λ), Y ∼ P ois(µ) unabhängig. Dann ist X + Y ∼ P ois(λ + µ).
12
4 Zufallsvariablen
Satz 4.12 (Faltungsformel für stetige ZV’en)
Seien X, Y : Ω → Z unabhängige ZV’en mit DIchten f und g. Dann hat die ZV’e X + Y die
Dichte f ∗ g mit
Z ∞
f (y) · g(x − y) dy
(f ∗ g)(x) =
−∞
Z ∞
=
f (x − y) · g(y) dy
−∞
Bezeichnung: Faltung von f und g.
Die Faltung der entsprechenden Verteilungsfunktionen F und G wird entsprechend definiert:
Z x
(f ∗ g)(y) dy,
d.h.
(F ∗ G)(x) =
−∞
F ∗ G = FX+Y
Folgerung 4.13
Seien X ∼ N (µ1 , σ12 ), Y ∼ N (µ2 , σ22 ) unabhängig. Dann ist X + Y ∼ N (µ1 + µ2 , σ12 + σ22 ).
4.5 Erwartungswert, Varianz und Kovarianz
Definition 4.14 (Erwartungswert für diskrete ZV’e)
Sei X : Ω → {x1 , x2 , . . .} eine diskrete ZV’e mit Wahrscheinlichkeitsfunktion (Zähldichte) p.
Dann ist der Erwartungswert von X definiert durch
X
E(X) =
xi · p(xi )
i∈N
=
X
xi · P (X = xi )
i∈N
Definition 4.15 (Erwartungswert für stetige ZV’e)
Sei X : Ω → R eine stetige ZV’e mit Wahrscheinlichkeitsdichte f . Dann ist der Erwartungswert von X definiert durch
Z ∞
x · f (x) dx
E(X) =
−∞
Satz 4.16 (Rechnen mit Erwartunsgwerten)
Seien X, Y ZV’en, a, b ∈ R. Dann gilt:
(a) E(a) = a.
(b) E(aX) = a · E(X) (Homogenität).
(c) E(X + Y ) = E(X) + E(Y ) (Additivität).
(d) Falls X ≤ Y (d.h. X(ω) ≤ Y (ω) für alle ω ∈ Ω), dann: E(X) ≤ E(Y ) (Monotonie).
(e) E|X + Y | ≤ E|X| + E|Y | (Dreiecksungleichung).
Satz 4.17 (Multiplikationssatz)
Seien X, Y unabhängige ZV’en. Dann gilt:
E(X · Y ) = E(X) · E(Y )
13
4 Zufallsvariablen
Definition 4.18 (Varianz, Kovarianz)
Seien X, Y ZV’en.
(a) Var(X) := E(X − EX)2 = E(X 2 ) − (EX)2 heißt Varianz von X.
(b) Cov(X, Y ) := E((X − EX) · (Y − EY )) = E(XY ) − (EX) · (EY ) heißt Kovarianz von
X und Y .
Lemma 4.19 (Eigenschaften Varianz)
Seien X, Y ZV’en, a, b ∈ R. Dann gilt:
(a) Var(a) = 0.
(b) Var(aX) = a2 · Var(X).
(c) Var(X + b) = Var(X) (Translationsinvarianz).
(d) E(X − a)2 = VarX + (EX − a)2 . Speziell gilt: E(X − a)2 wird minimal für a = E(X).
(e) Var(X + Y ) = Var(X) + Var(Y ) + 2Cov(X, Y ).
Lemma 4.20 (Eigenschaften Kovarianz)
Seien X, Y ZV’en, a, b ∈ R. Dann gilt:
(a) Cov(X, X) = Var(X).
(b) Cov(X, Y ) = Cov(Y, X) (Symmetrie).
(c) Cov(X + a, Y + b) = Cov(X, Y ) (Translationsinvarianz).
(d) Cov(aX, bY ) = ab · Cov(X, Y ).
(e) Wenn X, Y unabhängig sind, folgt Cov(X, Y ) = 0. Speziell gilt dann:
Var(X + Y ) = Var(X) + Var(Y )
.
Folgerung 4.21 (Erwartungswert einer Funktion von ZV’en)
Sei X ZV’e, g eine Funktion, Y := g(X). Dann ist Y eine ZV’e und es gilt:
(a) Falls X eine diskrete ZV’e mit Wahrscheinlichkeitsfunktion (Zähldichte) p ist, dann gilt:
X
E(Y ) =
g(xi ) · p(xi )
i∈N
=
X
g(xi ) · P (X = xi )
i∈N
(b) Falls X eine stetige ZV’e mit Wahrscheinlichkeitsdichte f ist, dann gilt:
Z ∞
E(Y ) =
g(x) · f (x) dx
−∞
4.6 Transformationen von ZV’en
14
5 Grenzwertsätze
5.1 Das Gesetz großer Zahlen
Satz 5.1 (Tschebyscheff-Ungleichung)
Sei X eine ZV’e mit Erwartungswert µ und Varianz σ 2 . Dann gilt für alle t > 0:
P (|X − µ| ≥ t) ≤
σ2
t2
Satz 5.2 (Gesetz großer Zahlen)
Sei X1 , X2 , . . . eine iid Folge mit E(Xi ) = µ und Var(Xi ) = σ 2 . Sei
n
1X
X n :=
Xi
n i=1
Dann gilt:
X n → µ (n → ∞)
Genauer: Für jedes ε > 0 gilt
P (|X n − µ| > ε) → 0 (n → ∞)
5.2 Der zentrale Grenzwertsatz
Satz 5.3 (Zentraler Grenzwertsatz)
Sei X1 , X2 , . . . eine iid Folge mit E(Xi ) = µ und Var(Xi ) = σ 2 . Sei
n
Sn∗
1 X Xi − µ
:= √
σ
n i=1
Dann gilt:
Sn∗ → Z (n → ∞)
und Z ∼ N (0, 1). Genauer: Für jedes x ∈ R gilt
P (Sn∗ ≤ x) → Φ(x) (n → ∞)
Dabei ist Φ die Verteilungsfunktion von N (0, 1).
15
5 Grenzwertsätze
Folgerung 5.4 (de-Moivre-Laplace)
Sei X ∼ Bin(n, p) mit p ∈ (0, 1). Dann gilt:
X − np
p
→Z
np(1 − p)
(n → ∞)
und Z ∼ N (0, 1). Genauer: Für jedes x ∈ R gilt
P
X − np
p
≤x
np(1 − p)
!
→ Φ(x)
(n → ∞)
Dabei ist Φ die Verteilungsfunktion von N (0, 1).
5.3 Anwendungen
5.3.1 Monte-Carlo Simulation
Monte-Carlo-Integration
Berechnung von Pi
16
Literaturverzeichnis
Lehrbücher
[B1] Bourier, Beschreibende Statistik, Gabler, 2005
[B2] Bourier, Wahrscheinlichkeitsrechnung und schließende Statistik, Gabler, 2006
[CK] Cramer, Kamps, Grundlagen der Wahrscheinlichkeitsrechnung und Statistik , Springer,
2007
[DH] Dehling, Haupt, Einführung in die Wahrscheinlichkeitstheorie und Statistik, Springer,
2004
[Kr] Krengel, Einführung in die Wahrscheinlichkeitstheorie und Statistik, Vieweg, 1991
[PfSchu] Pfeifer, Schuchmann, Statistik mit SAS, Oldenbourg, 1997
[Ri] Rice, Mathematical Statistics and Data Analysis, Duxbury, 1995
[St] Steland, Mathematische Grundlagen der empirischen Forschung, Springer, 2004
Nachschlagewerke
[Sa] Sachs, Heddrich, Angewandte Statistik, Springer, 2006
[Ha] Hartung, Statistik, Oldenbourg, 2005
17
Herunterladen