Tabellenverzeichnis Abbildungsverzeichnis

Werbung
Zusammenfassung der Vorlesung – Stochastik WS 2004/05
1
Inhaltsverzeichnis
1 Ein Modell für Zufallsexperimente
2
2 Laplace-Experimente, elementare Kombinatorik
3
3 Bedingte Wahrscheinlichkeiten und Unabhängigkeit
3.1 Bedingte W’keiten . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2 Unabhängigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4
4
4
4 Diskrete Zufallsgrößen
4.1 Allgemeines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.2 Einige wichtige Verteilungen . . . . . . . . . . . . . . . . . . . . . . .
4.2.1 Binomialverteilung X ∼ bin(n, p) . . . . . . . . . . . . . . . .
4.2.2 Hypergeometrische Verteilung X ∼ Hyp(M, m, n) (LOTTO)
4.2.3 geometrische Verteilung X ∼ geom(p) . . . . . . . . . . . . .
4.2.4 Poissonverteilung X ∼ pois(λ) . . . . . . . . . . . . . . . . .
4.3 Erwartungswert und Momente . . . . . . . . . . . . . . . . . . . . .
5
5
5
5
5
6
6
6
5 Stetige Zufallsgrößen
5.1 Allgemeines . . . . . . . . . . . . . .
5.2 Einige wichtige stetige Verteilungen .
5.2.1 Gleichverteilung . . . . . . .
5.2.2 Exponentialverteilung . . . .
5.2.3 Normalverteilung . . . . . . .
5.3 Erwartungswerte und Momente . . .
.
.
.
.
.
.
9
9
9
9
9
10
11
6 Mehrdimensionale Zufallsgrößen und Unabhängigkeit
6.1 Faltung von PX und PY . . . . . . . . . . . . . . . . . . . . . . . . .
6.2 Transformationssatz für W’-Dichten . . . . . . . . . . . . . . . . . .
12
14
14
7 Erzeugende Funktionen
7.1 w’erzeugende Funktion . . . . . . . . . . . . . . . . . . . . . . . . . .
7.2 momenterzeugende Funktion . . . . . . . . . . . . . . . . . . . . . .
15
15
15
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Tabellenverzeichnis
1
2
3
Urnenmodelle – (Kom sind Per, wobei die Elemente geordnet sind )
Tabelle mit EW und Var diskreter Verteilungen . . . . . . . . . . . .
Tabelle mit Verteilungsfunktionen und Dichten der stetigen Verteilungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3
8
10
Abbildungsverzeichnis
1
2
Gleichverteilung (Verteilungsfunktion, Dichtefunktion) . . . . . . . .
Normalverteilung (Dichtefunktion) . . . . . . . . . . . . . . . . . . .
9
10
Zusammenfassung der Vorlesung – Stochastik WS 2004/05
1
2
Ein Modell für Zufallsexperimente
Ω: Ergebnisraum, enthält die möglichen Ergebnisse des Zufallsexperimentes
A: System der Ereignisse A ⊂ Ω
P : ω → [0, 1]: Abbildung, die jedem Ereignis A seine Wahrscheinlichkeit P (A)
zuordnet. Es gilt: P (A) ≥ 0, P (ω) = 1 und
Für alle A1 , A2 , · · · ∈ ω mit Ai ∩Aj = ∅ für i 6= j (Folge von paarweise disjunkten
Ereignissen) gilt:
P(
∞
[
Ai ) =
i=0
∞
X
(σ − Additivität)
P (Ai )
i=1
Satz 1 erste Folgerungen
1. P (∅) = 0
2. P (A) ≤ 1
3. P (Ac ) = 1 − P (A)
4. A ⊂ B ⇒ P (A) ≤ P (B) Homogenität
5. P (A1 + · · · + Ak ) = P (A1 ) + . . . P (Ak ) endliche Additivität
Satz 2 weitere Folgerungen
1. boolesche Ungleichung: P (A1 ∪ · · · ∪ Ak ) ≤ P (A1 ) + · · · + P (Ak ) wichtig hierbei
ist, dass nicht vorrausgesetzt wird, das A1 , ..., Ak paarweise disjunkt sind.
2. Formel von Sylvester-Poincarré, Siebformel
P(
n
[
i=1
P(
3
[
Ai ) =
n
X
(−1)k+1 ·
k=1
Ai ) : P (A1 ∪ A2 ∪ A3 )
X
H⊂{1,...,n}
P(
\
Ai )
(Siebformel)
i∈H
= P (A1 ) + P (A2 ) + P (A3 )
i=1
−P (A1 ∩ A2 ) − P (A1 ∩ A3 ) − P (A2 ∩ A3 )
+P (A1 ∩ A2 ∩ A3 )
P(
2
[
i=1
Ai ) :
P (A1 ∪ A2 )
= P (A1 ) + P (A2 ) − P (A1 ∩ A2 )
Zusammenfassung der Vorlesung – Stochastik WS 2004/05
2
3
Laplace-Experimente, elementare Kombinatorik
Ein Laplace-Experiment liegt vor, wenn
1. #Ω < ∞ (endlicher Ergebnisraum)
2. A = R(Ω) (alle Teilmengen von Ω kommen als Ergebnis in Frage)
3. P (A) =
#A
Anzahl der günstigen Möglichkeiten
=
#Ω
Anzahl der Möglichkeiten isg
Urnenmodelle und passende Formeln:
ziehen von k
Kugeln aus einer
Urne mit n Kugeln
mit Zurücklegen
(mW)
mit Beachtung
derReihenfolge
P ermnk
nk
ohne Beachtung
derReihenfolge
Komnk
n+k−1
k
ohne Zurücklegen
(oW)
n!
(n−k)!
=
n(n − 1) · ... · (n − k + 1)
mit
Mehrfachbesetzung
n!
(n−k)!k!
=
n
k
ohne
Mehrfachbesetzung
unterschiedliche
Objekte
nicht
unterscheidbare
Objekte
Verteilen von k
Objekten auf n
Positionen
Tabelle 1: Urnenmodelle – (Kom sind Per, wobei die Elemente geordnet sind )
Erinnerung:
n! = 1 · 2 · 3 · . . . · n Fakultät
n
n!
k = (n−k)!k! ”n über k” oder ”k aus n”, Binomial-Koeffizient
Zusammenfassung der Vorlesung – Stochastik WS 2004/05
3
4
Bedingte Wahrscheinlichkeiten und Unabhängigkeit
3.1
Bedingte W’keiten
Es seien A und B Ereignisse in einem Zufallsexperiment. Welche Wahrscheinlichkeit
hat B, wenn bekannt ist, dass A eintrit?
Definition 1 Es sei A ein Ergebnis mit P (A) > 0. Die bedingte Wahrscheinlichkeit
von B unter A wird definiert durch
P (B|A) =
P (A ∩ B)
P (A)
Satz 3 (einige Definitionen)
1. Multiplikationsregel
Sind A1 , ..., An Ereignisse mit P (A1 ∩ ... ∩ An ) > 0, so gilt
P (A1 ∩ ... ∩ An ) = P (A1 ) · P (A2 |A1 ) · P (A3 |A1 ∩ A2 ) · ... · P (An |A1 ∩ ... ∩ An−1 )
2. Gesetz der totalen Wahrscheinlichkeit = Zerlegung
Ist A1 , ..., An eine Ereignispartition von Ω, d.h. A1 ∩...∩An = Ω, Ai ∩Aj =
∅ für i 6= j, so gilt für alle Ereignisse B
P (B) =
n
X
P (B|Ai )P (Ai )
i=1
Hierbei ist P (Ai ) = 0 zugelassen, der Summand wird dann als 0 interpretiert.
3. Formel von Bayes
Es seien A1 , ...An und B wie oben und P (B) > 0. Dann ist
P (Ai ) P (B|Ai )
P (Ai |B) = Pn
k=1 P (B|Ak ) P (Ak )
3.2
Unabhängigkeit
Einer der zentralen Begriffe der Stochastik ist der , der (stochastischen) Unabhängigkeit.
B ist von A unabhängig, wenn die Information ”A ist eingetreten” die W’keit für B
nicht ändert ⇒ P (B|A) = P (B) P P(B∩A)
(A) = P (B).
Definition 2 (Unabhängigkeit)
Zwei Ereignisse A und B heissen stochastisch unabhängig, wenn P (A ∩ B) =
P (A) · P (B) gilt.
P (A ∩ B) = P (A) · P (B) ⇒ A, B unabhängig
Aus einer paarweisen Unabhängigkeit in einer Ereignisfamilie
P (Ai ∩ Aj ) = P (Ai ) P (Aj ), für alle i, j ∈ I, i 6= j
folgt nicht die totale Unabhängigkeit.
Zusammenfassung der Vorlesung – Stochastik WS 2004/05
4
5
Diskrete Zufallsgrößen
4.1
Allgemeines
Oft interessiert man sich nicht für das Ereignis ω eines Zufallsexperimentes, sondern
nur für einen hiervon abhängigen Wert X(ω).
Definition 3 (ZV, Verteilung, WMF, Verteilungsfunktion)
1. Eine diskrete Zufallsvariable (ZV ) ist eine Abbildung X : Ω → R mit
endlich vielen oder abzählbar unendlich (N, Z, Q) vielen Werten.
2. Die Verteilung einer diskreten ZV X ist die Abbildung A → P (X ∈ A) (=
P (ω ∈ Ω : X(ω)) ∈ A), diese ist ein W’Maß.
3. Die Wahrscheinlichkeitsmassenfunktion (WMF) P X einer diskreten
ZV X wird definiert durch
P X : R → [0, 1], P X (x) = P (X = x)
4. Die Verteilungsfunktion FX einer diskreten ZV X wird definiert durch
FX : R → [0, 1], FX (x) = P (X ≤ x)
Massenfunktionen können beispielsweise durch ein Stabdiagramm illustriert werden.
Bem.:
i) Zu jeder ZV gehört eine Verteilung und verschiedene ZV können durchaus die
gleiche Verteilung haben.
ii) Da durch die Abbildung X in der Regel unterschiedlich viele Argumentwerte
ω zu einem Bildwert X(ω) zusammengefasst werden, sind in der Regel selbst bei
einem Laplace-Experiment die Werte P (X = x) nicht gleichgroß.
4.2
4.2.1
Einige wichtige Verteilungen
Binomialverteilung X ∼ bin(n, p)
X heißt binomialverteilt mit Parametern n und p, wenn gilt
n k
P (X = k) =
p (1 − p)n−k für k = 0, 1, ..., n
k
Man erhält Bin(n, p) als Verteilung der Anzahl X der Erfolge bei n unabhängigen
Versuchswiederholungen mit Erfolgswahrscheinlichkeit p.
4.2.2
Hypergeometrische Verteilung X ∼ Hyp(M, m, n) (LOTTO)
Eine ZV heißt hypergeometrisch verteilt mit Parametern M,m,n (alles natürliche
Zahlen), wenn gilt
m M −m
P (X = k) =
k
n−k
M
n
Typische Fragestellung ist nach der W’keit für zwei Richtige im Zahlenlotto ”6 aus
(6)(49−6)
49”: 2 496−2
(6)
Die Verteilung taucht bei Stichproben ohne Zurücklegen auf.
Für große M ; Binomialverteilung
Zusammenfassung der Vorlesung – Stochastik WS 2004/05
4.2.3
6
geometrische Verteilung X ∼ geom(p)
Eine Art ”Wartezeitverteilung”: ”Angenommen, ein Würfel wird solange geworfen, bis eine
sechs erscheint...”
X heißt geometrisch verteilt mit Parameter p, wenn gilt
P (X = n) = (1 − p)n−1 · p,
für n ∈ N
Diese Verteilung taucht immer dann auf, wenn ein Zufallsexperiment solange wiederholt wird, bis ein bestimmtes Ereignis eintritt, der Parameter ist die W’keit des
Ereignisses, auf das gewartet wird.
Zählt man stattdessen die Anzahl der Misserfolge, so erhält man eine andere Version
der geometrischen Verteilung:
P (X = n) = (1 − p)n · p,
4.2.4
für n ∈ N
Poissonverteilung X ∼ pois(λ)
Die ZV X heißt poisson-verteilt, mit Parameter λ (λ > 0), wenn gilt
P (X = k) = e−λ ·
λk
, k ∈ N0
k!
Satz 4 (”Das Gesetz der seltenen Ereignisse”)
Ist (pn )n∈N ⊂ [0, 1] eine Nullfolge mit lim n pn = λ, so gilt für alle k ∈ N0
n→∞
n k
λk
lim
pn (1 − pn )k = e−λ
n→∞
k
k!
W’keit für k Erfolge bei n Wiederholungen mit Erfolgswahrscheinlichkeit p.
Bekannt ist: limn→∞ (1 + nx )n = ex
4.3
Erwartungswert und Momente
In diesem Abschnitt werden einige Verteilungsparameter eingeführt. Dies sind Zahlen, die bestimmte Aspekte einer Verteilung, wie beispielsweise die Lage oder die
Streuung, beschreiben.
Definition 4 (Erwartungswert E(X))
Sei X eine diskrete Zufallsvariable mit WMF PX . Dann wird der Erwartungswert
E(X) von X defniniert durch
E(X) =
X
x · P (X = x)
x∈N
P
Hierbei wird vorrausgesetzt, dass die Reihe absolut konvergiert, d.h.
|x|px (x) <
∞. Ist dies nicht der Fall, so sagt man, dass der Erwatungswert nicht existiert.
Beobachtungen:
• Der Erwartungswert einer Poissonverteilung mit Parameter λ ist gerade λ.
Zusammenfassung der Vorlesung – Stochastik WS 2004/05
7
Erwartungswert von Funktionen von Zufallsvariablen
Oft kann man die interessierende Zufallsvariable Y als Funktion g einer anderen ZV
schreiben
g
Ω X
→ R → R Y =: g(x).
P
P
Satz 5 Es gilt E g(X) = x∈R g(X) · PX (x) = x∈R g(X) · P (X = x), vorrausgesetzt, die Summen konvergieren absolut.
Satz 6 (Rechenregeln für Erwartungswerte)
Seien X,Y diskrete ZV und c ∈ R.
Vorrausgesetzt, dass die beteiligten Summen absolut konvergieren, dann gilt:
1. E(X) = E(E(X))
2. E(X + Y ) = E(X) + E(Y )
E(X1 + X2 + ... + Xn ) = E(X1 ) + E(X2 ) + ... + E(Xn )
3. E(cX) = c · E(X)
4. X ≤ Y ⇒ E(X) ≤ E(Y )
Definition 5 (k-te Moment)
Das k-te Moment von X ist definiert als E(X k ) , vorrausgesetzt, die Reihe ist
P
absolut konvergent ( x |x|k P (X = x) < ∞).
Die Varianz von X ist definiert als
var(X) = E(X − EX)2 (Maß für die Streuung)
(Vorraussetzung ist, dass EX 2 < ∞, sonst sagt man, die Varianz existiert nicht)
p
Schließlich heißt σ(X) = var(X) die Standardabweichung von X.
Die Varianz ist ein Maß für die Streuung einer ZV um ihren Erwartungswert.
Rechenregeln:
1.
var(X) = E(X − EX)2
=
=
=
=
E(X 2 − 2X(EX) + (EX)2 )
E(X 2 ) − E(2X(EX)) + E((E(X))2 )
E(X 2 ) − 2E(X) · E(X) + (E(X))2
E(X 2 ) − (E(X))2
also var(X) = E(X 2 ) − (E(X))2
2. Sei c ∈ R, dann
var(X + c)
= E((X + c) − E(X + c))2 = E(X + c − EX − c)2
= E(X − EX)2 = var(X) ⇒ var(X + c) = var(X)
3.
var(cX)
= E(c2 X 2 ) − (E(cX))2
= c2 (E(X 2 )) − c2 (EX)2
= c2 (E(X 2 ) − (EX)2 ) = c2 var(X) ⇒ var(cX) = c2 var(X)
damit klar:
σ(X + c) = σ(x) und σ(cX) = |c| · σ(X).
Tabelle mit Erwartungswerten und Varianzen der bisher genannten Verteilungen:
Zusammenfassung der Vorlesung – Stochastik WS 2004/05
EW
WMF=P X = P (X = k)
Verteilung
Parameter
Var
Poisson
λ
λ
λ
binomial
n, p
n·p
np(1 − p)
geometrisch
p
1/p
1−p
p2
hypergeom.
M, m, n
n·m
M
m·n
M
8
·
M −m
M
e−λ ·
n
k
λk
k! ,
k ∈ N0
pk (1 − p)k−1 , für k =
0, 1, ..., n
(1 − p)n−1 · p , für n ∈ N
·
M −n
M −1
Tabelle 2: Tabelle mit EW und Var diskreter Verteilungen
M −m
(m
k )( n−k )
(M
n)
Zusammenfassung der Vorlesung – Stochastik WS 2004/05
5
5.1
9
Stetige Zufallsgrößen
Allgemeines
Viele Zufallsgrößen können ein Kontinuum von Werten annehmen: Lebensdauer,
Messfehler, Proportionen, etc.
Definition 6 (Dichte, stetig verteilt)
Eine ZV X heißt absolut stetig verteilt (kurz stetig) mit Wahrscheinlichkeitsdichtefunktion fX (kurz Dichte), wenn gilt
Zx
P (X ≤ x) =
fX (y) dy
∀x∈R
−∞
Die Funktion FX : R → R, FX (x) = P (X ≤ x), heißt die Verteilungsfunktion
zu X.
Im diskreten Fall ist FX vom reinen Sprungtyp. Im stetigen Fall ist FX ”glatt”.
Grob ist fx die Ableitung von FX , insbesondere also FX stetig. Insbesondere gilt
P (X = x) = 0 ∀ x ∈ R bei stetigen ZV.
5.2
5.2.1
Einige wichtige stetige Verteilungen
Gleichverteilung
Eine Zufallsvariable ZV heißt gleichverteilt auf dem Intervall
( (a,b), kurz: L(X) =
1
,a < x < b
unif, X ∼ unif (a, b), wenn X die Dichtefunktion f (x) = b−a
hat.
0
R∞
Die zugehörifge Verteilungsfunktion ist F (X) =
f (y) dy
−∞
Abbildung 1: Gleichverteilung (Verteilungsfunktion, Dichtefunktion)
5.2.2
Exponentialverteilung
Die Exponentialverteilung mit Parameter λ(> 0) wird durch die Dichte
(
λe−λx , x ≥ 0
f (x) =
}Stammfkt:1 − e−λx
0
, sonst
beschrieben; die zugehörige Verteilungsfunktion ist
(
1 − e−λx , x ≥ 0
F (x) =
0
, x<0
Diese Verteilung taucht häufig im Zusammenhang mit Wartezeiten und Lebensdauern auf. In Beispielen sieht man, daß dann das Alter keine Rolle spielt, diese
Tatsache nennt man auch die Gedächtnislosigkeit der Exponentialverteilung.
Zusammenfassung der Vorlesung – Stochastik WS 2004/05
5.2.3
10
Normalverteilung
Die wichtigste stetige Verteilung ist die Normalverteilung mit Parametern µ ∈ R
und σ 2 > 0, kurz: N (µ, σ 2 ), mit der Dichtefunktion:
f (x) = √
1
2πσ 2
exp(−
1
(x − µ)2 ),
2σ 2
−∞ < x < ∞.
Dies ist die Gaußsche Glockenkurve mit ihren Wendepunkten in µ ± σ Taucht oft
Abbildung 2: Normalverteilung (Dichtefunktion)
im Zusammenhang mit Messfehlern auf (Zentraler Grenzwertsatz)
!Man findet keine Stammfunktion, deshalb gibt es Tabellen!
Für die zugehörige Verteilungsfunktion gibt es keine einfache Formel. Für die
Werte µ = 0, σ 2 = 1 (Man nennt N(0,1) auch Standardnormalverteilung) sind
die Werte der Verteilungsfunktion
1
Φ(x) = √
2π
Z∞
2
e−1/2y dy
−∞
vertafelt (Tabelle), beispielsweise gilt Φ(1, 645) = 0.95.
Tabelle mit den behandelten stetigen Verteilungen
Verteilung
Gleich
kurz
unif (a, b)
Vert.funktion
FX (x) =
R∞
Dichte
fX (x) =
f (y) dy
1
b−a
−∞
Exponential
exp(λ)
FX (x) = 1 − e−λx
für x ≥ 0, 0 sonst.
Normal
N (µ, σ 2 )
Es gibt keine Funktion,
für N (0, 1) sind Werte
vertafelt.
fX (x) =
R∞ −1/2y2
1
√
e
dy
2π
fX (x) = λe−λx
für x ≥ 0, 0 sonst. Stammfkt: − e−λx
fX (x) =
,
√ 1
exp(− 2σ1 2 (x
2πσ 2
−∞ < x < ∞
−∞
Tabelle 3: Tabelle mit Verteilungsfunktionen und Dichten der stetigen Verteilungen
Lemma 5.2
Für alle β ∈ R, α 6= 0 gilt X ∼ N (µ, σ 2 ) ⇒ αX + β ∼ N (αµ + β, α2 σ 2 )
− µ)2 )
Zusammenfassung der Vorlesung – Stochastik WS 2004/05
5.3
11
Erwartungswerte und Momente
Definition 7 (Erwartungswert stetiger ZV)
Ist X eine stetige Zufallsgröße mit Dichte f , so wird der Erwartungswert EX
von X definiert durch
Z
EX = x f (x) dx ,
vorrausgesetzt, es gilt
nicht existiert.
R
|x|f (x) dx < ∞ sont sagt man, dass der Erwartungswert
Satz 7
Z
E g(x) =
g(x) f (x) dx
Satz 8 (Linearität und Monotonie)
Unter der Vorraussetzung, dass die beteligten Erwartungswerte existieren, gilt
1. E(X + Y ) = EX + EY , E(cX) = c EX
c ∈ R (Linearität)
2. X ≤ Y ⇒ EX ≤ EY (Monotonie)
Definition 8 (Momente stetiger ZV)
Das i-te Moment einer (stetigen) ZV X ist mit E(X k ), diep
Varianz mit var(X) =
E(X − EX)2 und die Standardabweichung mit σ(X) = var(X) gegeben.
Rechenregeln sind (für c ∈ R):
var(X)
var(cX)
var(X + c)
= EX 2 − (EX)2
= c2 var(X)
= var(X)
Merke:
zur Standardnormalverteilung N (0, 1) gehören der Erwartungswert 0 und die Varianz 1.
im allgemeinen Fall X ∼ N (µ, σ 2 ) gilt EX = µ und var(X) = σ 2
Zusammenfassung der Vorlesung – Stochastik WS 2004/05
6
12
Mehrdimensionale Zufallsgrößen und Unabhängigkeit
Hat man mehrere, von dem Ergebnis ω eines Zufallsexperimentes abhängige Größen
X1 (ω), ..., Xn (ω) ∈ R, so kann man diese zu einem stochastischen Vektor X zusammenfassen: ω 7→ (X1 (ω), ..., Xn (ω)).
Definition 9 (gemeinsame Verteilungsfunktion von ZVektoren)
Die gemeinsame Verteilungsfunktion FX,Y : R2 → R zweier ZV X und Y ,
oder auch: die Verteilungsfunktion des Zufallsvektors (X, Y ), wird definiert durch
FX,Y (x, y) = P (X ≤ x und Y ≤ y) = P ({ω ∈ Ω : X(ω) < x ∧ Y (ω) < y}).
Definition 10 (Unabhängigkeit von Zufallsvektoren)
Es seien X, Y ZV mit gemeinsamer Verteilungsfunktion FX,Y . Weiter sei FX die
Verteilungsfunktion zu X und FY die Verteilungsfunktion zu Y . Dann heißen X
und Y stochastisch unabhängig, wenn gilt:
FX,Y (x, y) = FX (x) · FY (y)
für alle x, y ∈ R
speziell bei diskreten stetigen ZV setzt man:
Definition 11 (diskreter, stetiger Zufallsvektor)
1. Nehmen X und Y nur endlich viele oder höchstens abzählbar viele Werte
an, so nennt man (X, Y ) einen diskreten Zufallsvektor und PX,Y (x, y) :=
P (X = x, Y = y) die gemeinsame Massenfunktion von X und Y .
2. Gibt es eine Funktion fX,Y : R2 → R+ mit der Eigenschaft
Zx Zy
FX,Y (x, y) =
fX,Y (s, t) ds dt
∀ x, y ∈ R
−∞ −∞
so nennt man (X, Y ) einen absolut stetig verteilten Zufallsvektor und
fX,Y eine gemeinsame Dichtefunktion von X und Y .
Satz 9 ()
Es seien X und Y Zufallsvektoren und g : R2 → R eine Funktion, dann gilt
1. Ist (X, Y ) ein diskreter Zufallsvektor mit Massenfunktion PX,Y , so gilt
E g(x, y) =
XX
X
g(x, y) PX,Y (x, y).
Y
2. Ist (X, Y ) ein stetiger Zufallsvektor mit Dichtefunktion FX,Y , so gilt
Z Z
E g(x, y) =
g(x, y) fX,Y (x, y) dx dy.
Interpretation:
Wahrscheinlichkeiten als Volumina unter der durch die Dichte definierte Oberfläche.
Zusammenfassung der Vorlesung – Stochastik WS 2004/05
13
Satz 10 (Zusammenhang zur Unabhängigkeit:)
1. Ist X, Y diskret mit Massenfunktion PX,Y , so sind X und Y genau dann
unabhängig, wenn
pX,Y (x, y) = pX (x) · pY (y)
für alle x, y ∈ R
gilt (konkret: P (X = x, Y = y) = PP
(X = x) · P (Y = y)). P
Hierbei sind pP
X (x) = P (X = x) =
Y P (X = x, Y = y) =
Y pX,Y (x, y)
und pY (y) = X pX,Y (x, y) die Massenfunktionen zu X und Y .
2. Ist X, Y stetig mit Dichtefunktion fX und fY , so sind sie genau dann unabhängig, wenn fX,Y mit fX,Y (x, y) = fX (x)·fY (y) eine Dichtefunktione zum
Zufallsvektor (X, Y ) ist.
Satz 11 (Multiplikationsregel für Erwartungewerte)
Für unabhängige ZV X und Y gilt E(XY ) = E(X) · E(Y ) (vorrausgesetzt, die
Erwartungswerte existieren)
Definition 12 (CoVarianz)
Die Kovarianz cov(X, Y ) zweier ZV X und Y wird definiert durch
cov(X, Y ) = E(X − EX) · (Y − EY )) .
cov(X,Y )
als Korrelationskoeffizient ϕ(X, Y ) berechnet man ϕ(X, Y ) = σ(X)σ(Y
) (vorrausgesetzt, die ZV haben eine endliche, von 0 verschiedene Varianz).
Es gilt
cov(X, Y )
= E(XY − (EX)Y − X(EY ) + (EX)(EY ))
= E(XY ) − (EX)(EY ) − (EX)(EY ) + (EX)(EY )
= E(XY ) − (EX)(EY )
Sind X, Y unabhängig gilt cov(X, Y ) = 0 und man sagt, X,Y sind unkorreliert.
Die Umkehrung gilt nicht.
cov und ϕ können als Maß eier linearen Abhängigkeit angesehen werden.
Cauchy-Schwarz-Ungleichung
p
|E(X − EX)(y − EY )| ≤ (E(X − EX)2 )(E(Y − EY )2 )
p
|cov(X, Y )| ≤ var(X) · var(Y ) = σ(X)σ(Y )
Insbesondere nimmt der Korrelationskoeffizient Werte im Intervall [−1, 1] an.
Zwei Zufallsvariablen X und Y sind unabhängig, wenn sich die gemeinsame (Massen)Verteilungsfunktion also Produkt der marginalen (Massen-)Verteilungsfunktionen
schreiben lassen.
Bei der Dichtefunktion ist zu beachten, dass man die marginalen Dichtefunktioen
durch ”ausintegrieren” der anderen Komponente erhalten kann:
Z∞
fX (x) =
Z∞
FX,Y (x, y) dy =
0
e−x−y = e−x
0
Damit lassen sich W’keiten ausrechnen, die sich auf beide ZV beziehen, zum Beispiel:
P (X ≤ 2Y ) =
x
{(x,y):x≤2y, x,y≥0}
Z
Z
fX,Y (x, y) dydx =
∞
Z∞
0
x/2
e−x−y dydx = 2/3
Zusammenfassung der Vorlesung – Stochastik WS 2004/05
14
Satz 12 (Gleichheit von Bienaymé)
Sind X1 , ..., Xn unabhängige Zufallsvektoren, mit endlicher Varianz, so gilt var(X1 )+
... + var(Xn )
Ist die gemeinsame Verteilung zweier ZV X und Y bekannt, so lässt sich (im
Prinzip) die Verteilung von Z := g(X, Y ) unter g : R2 →
R gegeben, bestimmen.
Besonders wichtig, Z = X + Y , also g : R2 → R, x = xx12 → x1 + x2 .
6.1
Faltung von PX und PY
Satz 13
1. Sind X, Y unabhängige diskrete ZV mit Massenfunktionen pX , pY ,
so ist X + Y wieder eine diskrete ZV mit Massenfunktion
X
PX+Y (z) =
pX (x)pY (z − x)
x
=
X
pX (z − y)pY (y)
y
Terminologie: Man nennt PX+Y die Faltung von PX und PY
2. Sind X, Y unabhängige stetige ZV mit Dichtefunktionen fx , fy , so ist auch
X + Y eine stetige ZV, und die Dichtefunktion lautet
Z
Z
fX+Y (z) = fX (x)fY (z − x) dx = fX (z − y)fY (y) dy
Terminologie: Man nennt fX+Y die Faltung von fX und fY .
6.2
Transformationssatz für W’-Dichten
Satz 14 (Transformationssatz für W’-Dichten)
Es seien U und V offene Teilmengen von Rd und Ψ : U → V eine bijektive, stetige
diffbare Abbildung mit det((Ψ0 (x)) 6= 0 für alle x ∈ U .
Ist dann X ein Zufallsvektor mit Dichte fX und P (X ∈ U ) = 1, so hat Y := Ψ(x)
die Dichte
fY (y) = |det(Ψ−1 )0 (y)| fX (Ψ−1 (y)), y ∈ V.
Zusammenfassung der Vorlesung – Stochastik WS 2004/05
7
15
Erzeugende Funktionen
In diesem Kapitel geht es um Transformationsmethoden, die in vielen Bereichen der Mathematik von großer Bedeutung sind und eine starke Verbindung zur
Analysis herstellen.
7.1
w’erzeugende Funktion
Die w’erzeugende Funktion im allgemeinen ist definiert durch
gX (s) =
∞
X
fX (k)sk = EsX
k=0
siehe hierzu Übung11
siehe Skript von Frau Prof. Bäuerle S.29 ff.
7.2
momenterzeugende Funktion
Die momenterzeugende Funktion zu einer Zufallsvariablen is definiert als:
Z ∞
ϕX (t) = EetX =
etx · fX (x)dx
0
Herunterladen