Stochastik Formeln

Werbung
Stochastik Formeln
von Gerald Meier
1 Grundbegriffe und Operationen
unmögliches Ereignis ∅
Ω
sicheres Ereignis
A impliziert B
Gleichheit
nicht A
A und B
A oder B
A ohne B
A⊆B
A=B
A
A∩B
A∪B
A \ B = A∩B
disjunkt
A∩B=∅
de Morgan
A∩B = A ∪B
Elementarereignis
ω∈ Ω
Potenzmenge von Ω
P(Ω)
A ⊆ P(Ω) σ-Algebra, falls Ω ∈ A
A ∈ A und A ∈ A
∞
A ∈ A → U A ∈ A
i
i
i= 1
Ereignisraum ER endlich, falls Ω = n < N
abzählbar, falls Ω = N
diskret, falls Ω ≤ N
kontinuierlich, falls Ω = R
2 Wahrscheinlichkeit
2.1 axiomatische Definition
0 ≤ p( A ) ≤ 1 ∀ A ∈ A
p(Ω) = 1
∞
 ∞
A ∈ A für i ∈ N und A i ∩ A k = ∅ für i ≠ k , dann gilt pU A i  = ∑ p(A i )
i
 i= 0  i= 0
2.2 Wahrscheinlichkeitsraum WR
p(∅) = 0
( )
p A = 1 − p(A )
p(A ∪ B) = p(A ) + p( B) − p(A ∩ B)
A ⊆ B → p(A ) ≤ p( B)
A ∈ A für i ∈ N A 1 ⊆ A 2 ⊆K
i
A ∈ A für i ∈ N A 1 ⊇ A 2 ⊇K
i
(Ω, A , p) WR A 1 ,K , A n ∈ A
∞

→ pU A i  = lim p(A i )
 i=1  i →∞
∞

→ pI A i  = lim p(A i )
 i=1  i →∞
- Seite 1 -
- Gerald Meier: Stochastik Formeln n
n
n
n
 n

n +1 
→ pU A i  = ∑ p(A i ) − ∑ p(A i ∩ A k ) + ∑ p(A i ∩ A k ∩ A s )−K+(−1) pI A i 
 i = 1  i =1
 i =1 
i , k =1
i , k , s =1
i< k
i< k < s


pU A i  ≤ ∑ p(A i )
 i
 i
2.3 diskrete Wahrscheinlichkeitsräume WR
Gleichverteilung / LAPLACE-Verteilung
1
A
∀ω ∈ Ω
Ω=N
p(ω) =
p(A ) =
N
N
Geometrische Verteilung
p( k ) = (1 − p) ⋅ p
k
2.4 kontinuierliche Wahrscheinlichkeitsräume WR
Gleichverteilung
β−α
p([α, β]) =
b−a
a≤α≤β≤ b∈R
3 Bedingte Wahrscheilichkeit
3.1 Definition
p(A B) =
p(A ∩ B)
p( B)
3.2 Anwendungen
3.2.1 Multiplikationssatz
p(A ∩ B) = p( B) ⋅ p(A B)
p(A ) > 0
(
p( B) > 0
) (
)
(
p(A 1∩K∩A n ) = p(A 1 ) ⋅ p A 2 A 1 ⋅ p A 3 A 1 ∩ A 2 ⋅K⋅p A n A 1 ∩ A 2 ∩K∩A n −1
)
3.2.2 MARKOV-Kette
(
) (
)
) = p(A ) ⋅ p(A A ) ⋅ p(A A )⋅K⋅p(A
A 1K A n mit p A k A 1∩K∩A k −1 = p A k A k −1 → MARKOV-Kette
→ p(A 1∩K∩A n
1
2
1
3
2
n
A n −1
)
3.2.3 Satz von der totalen Wahrscheinlichkeit
A 1K A n Zerlegung von Ω
p( B) = ∑ p(A k ) ⋅ p( B A k )
n
k =1
3.2.4 Pfadregeln
1. Die Wahrscheinlichkeit für das Eintreten eines Pfades ist gleich dem Produkt der Wahrscheinlichkeiten der
Äste des Pfades
2. Die Wahrscheinlichkeit eines Ereignisses ist gleich der Summe der Wahrscheinlichkeiten derjenigen Pfade,
die das Ereignis bilden.
3.2.5 Formel von BAYES
(Ω, A , p) WR A 1 ,K , A n ∈ A
p(A k ) ⋅ p( B A k )
(
)
p Ak B =
∑ p( B A ) ⋅ p(A )
n
j= 1
j
Zerlegung von Ω p(A k ) > 0, B ∈ A , p( B) > 0
für k = 1K n
j
- Seite 2 -
- Gerald Meier: Stochastik Formeln -
3.2.6 Stochastische Unabhängigkeit
p(A ∩ B) = p(A ) ⋅ p( B)
A und B unabhängig → p(A ) = p(A B) , p( B) = p( B A )


pI A j  = ∏ p A j
 j∈J  j∈J
( )
3.3 BERNOULLI-Verteilung
p(ω) = p k ⋅ (1 − p)
n− k
4 Zufallsvariablen
5 Diskrete Zufallsvariablen
Verteilungsfunktion VF: FX ( x) =
p( x m ≤ X ≤ x n ) =
∑p
k:x k ≤ x
k
n
∑pk
k=m
5.1 Gleichverteilung / LAPLACE-Verteilung
X(Ω) = {x1 , K , x n }
p k = p( X = x k ) =
1
n
k=1,...,n
Anwendung: Bei Zufallsvariablen ZVa mit endlich vielen Werten, die keinen bevorzugen.
5.2 Geometrische Verteilung
X(Ω) = N 0
p k = p( X = k ) = p ⋅ (1 − p)
k
Anwendung: ∞-stufiges BERNOULLI-Experiment.
5.3 Binominalverteilung
X(Ω) = N 0
 n
n− k
p k = p( X = k ) = b( k; n, p) =   ⋅ p k ⋅ (1 − p)
k
Anwendung: n-stufiges BERNOULLI-Experiment (Ziehen mit Zurücklegen). Es werden n Teile herausgegriffen.
Die Wahrscheinlikeit ein Ausschußteil zu ziehen ist p. Es weren k Ausschußteile gezogen.
Wahrscheinlichste Anzahl von Erfolgen: für festes n, gesucht k bei dem p maximal wird
k = k max = [( n + 1) ⋅ p] - Nachkommastellen werden abgeschnitten
( n + 1) ⋅ p ∈ N → k max,1 = ( n + 1) ⋅ p , k max,2 = k max,1 − 1
Wahrscheinlichkeit dafür, daß Erfolgsanzahl aus Intervall stammt: p( k 1 ≤ X ≤ k 2 ) =
k2
 n
∑ k  ⋅ p ⋅ (1 − p)
k
n− k
k = k1
5.4 POISSON-Verteilung
X(Ω) = N 0
p k = p( X = k ) = p( k; λ): =
Für n>>1 und p<<1 ist b( k; n, p) ≈ p( k; n ⋅ p)
λk − λ
⋅e
k!
λ>0
Anwendung: Die POISSON-Verteilung wird als Näherung für die Binominaverteilung verwendet - unter oben
aufgeführten Voraussetzungen.
- Seite 3 -
- Gerald Meier: Stochastik Formeln -
5.5 Hypergeometrische Verteilung
N, M, n ∈ N, N − M ≥ 0
M N − M
  ⋅

 k   n−k 
p k = p( X = k ) = h( k; n, M , N − M ) =
X(Ω) = N 0
N
 
n
p k ≠ 0 nur für k ≤ n, k ≤ M , n − k ≤ N − M
Anwendung: Stichproben ohne Rückgabe: Der Posten umfaßt N Teile - darunter M Ausschußteile. n Teile
werden entnommen, darunter k Ausschußteile.
Grenzwertsatz: lim h( k; n, M , N − M ) ≈ b( k; n, M N )
N →∞
M = pN
5.6 MOIVRE-LAPLACE-Asymptotik
STIRLING-Formel: n! ≅ n n ⋅ e − n ⋅ 2πn für n → ∞
Definitionen: ϕ( x) =
1
2π
⋅e
−
x2
2
GAUSS-/Normalfunktion
x
G ( x) = ∫ ϕ( t )dt
−∞
erf ( x) = G ( x) − 21
Fehlerfunktion
Satz: G (∞) = 1
G (− x) = 1 − G ( x)
1
G ( x) ≅ 1 − ⋅ ϕ( x)
x
MOIVRE-LAPLACE-Asymptotik
k - np
gilt für n, k → ∞
Mit 0 < p < 1, q = 1- p, x =
npq
 k − np 

⋅ ϕ
npq  npq 
Damit erhält man gute Näherungen für npq > 9 . Damit gilt für BERNOULLI-Experimente
 k − np 
 k − np 
 − G 1

p( k 1 ≤ X ≤ k 2 ) ≅ G  2
 npq 
 npq 
oder genauer
 k − np + 0,5 
 k − np − 0,5 
 − G 1

p( k 1 ≤ X ≤ k 2 ) ≅ G  2
npq
npq




 n
b( k; n, p) =   ⋅ p k ⋅ q n − k ≅
k
1
5.7 BERNOULLI-Gesetz der großen Zahl
n-stufiges BERNOULLI-Experiment mit der Erfolgswahrscheinlichkeit p. k Anzahl des Eintretens eines
bestimmten Ereignisses, h n = k n die relative Häufigkeit. Für jedes ε > 0 gilt
(
)
p h n − p ≤ ε → 1 für n → ∞
6 Stetige Zufallsvariablen
x
Verteilungsfunktion: FX =
∫ f ( t )dt
Dichte(-funktion): f
−∞
p( a ≤ X ≤ b) = p( a < X ≤ b) =K = FX ( b) − FX ( a )
Dichte symmetrisch bezüglich a → p( X ≤ a − x) = p( a + x ≤ X) → p( a − x) = p( a + x)
- Seite 4 -
- Gerald Meier: Stochastik Formeln -
6.1 Normalverteilung
(
)
ZVa X normalverteilt mit Parametern µ und σ ( µ, σ > 0) bzw. N µ, σ -verteilt:
2
(
)
1
Dichte: f X ( x): = ϕ x; µ, σ : =
2
2 πσ
( x− µ )
⋅e
2
=
2σ
2
x− µ
⋅ ϕ

σ  σ 
1
2
x
x− µ
2
2
Verteilungsfunktion: FX ( x): = Φ x; µ, σ : = ∫ ϕ x; µ, σ dx = G 

 σ 
−∞
 b− µ
a−µ
p( a < X < b) = G 
p( X − µ < kσ) = 2 G ( k ) − 1
 − G

 σ 
 σ 
(
)
p( X − µ < σ) = 0,683
(
(
ϕ x; µ, σ
2
) symmetrisch zu x = µ
)
p( X − µ < 2σ) = 0,955
p( X − µ < 3σ) = 0,997
Anwendung: Die Zufallsvariable ZVa entsteht durch Überlagerung einer großen Anzahl unabhängiger Effekte,
wobei jeder nur einen kleinen Einfluß auf die ZVa hat (Meßfehler,...).
6.2 Exponentialverteilung
ZVa exponentialverteilt mit Parameter α (α > 0) :
 0
für x < 0
Dichte: f X ( x) = 
- αx
für x ≥ 0
α ⋅ e
 0
für x < 0
Verteilungsfunktion: FX ( x) = 
− αx
für x ≥ 0
1 − e
p( X ≤ x + h X ≥ x) = p( X ≤ h) ∀x, h > 0 ⇔ X ist exponentialverteilt
Anwendung: Lebensdauer von Schaltelementen, radioaktiver Zerfall, ...
6.3 Funktionen von ZVa mit Dichten
f Y ( x) =
Y = g( X )
1.) g′ > 0
d
dx
FY ( x) =
→
f Y ( x) =
d
dx
→
f Y ( x) =
d
dx
→
f Y ( x) =
d
dx
d
dx
p( g( X) ≤ x)
(
)
g′( g ( x))
f ( g ( x) )
F ( x) =
g′( g ( x))
f ( x ) + f (− x )
( )
FY ( x) =
−1
f X g ( x)
−1
−1
2.) g′ ≠ 0
3.) g( x) = x
2
X
−1
Y
FY x =
X
X
2 x
→ weiteres Seite 35
6.4 ZVa vom gemischten Typ
ZVa vom gemischten Typ ↔ nicht stetig und diskret
Sprungstellen x k mit Sprunghöhe: p k = p X = x k
(
x
Verteilungsfunktion: FX ( x) = ∫ f X ( t )dt +
−∞
∑p
k :x k ≤ x
)
k
7 Charakteristische Größen
7.1 Erwartungswert
7.1.1 diskrete ZVa
Erwartungswert: EX = ∑ x k ⋅ p k
k
- Seite 5 -
- Gerald Meier: Stochastik Formeln -
1
⋅ ∑ pk
n k
EX = n ⋅ p
EX =
diskrete Gleichverteilung:
Binomialverteilung:
Hypergeometrische Verteilung: EX = n ⋅ p = n ⋅
EX = λ
POISSON-Verteilung:
M
N
7.1.2 stetige ZVa
∞
Erwartungswert: EX = ∫ x ⋅ f X ( x)dx
−∞
a+b
Gleichmäßige Verteilung: EX =
2
EX = µ
1
EX =
α
Normalverteilung:
Exponentialverteilung:
7.1.3 ZVa vom gemischten Typ
xk = k ⋅ h
Mittelwert: X =
∞
∑x
k =−∞
k
⋅ pk
∞
Erwartungswert: EX = ∫ xdF( x) = lim X h
h →∞
−∞
7.1.4 Rechenregeln
E( aX + b) = aEX + b
E( X − EX) = 0 X → X-EX heißt zentrieren
( )
diskrete ZVa: E( g( X)) = ∑ g x i ⋅ p i
∞
i
stetige ZVa: E( g( X)) = ∫ g( x) ⋅ f X ( x)dx
−∞
X → X-EX heißt Zentrierung
7.2 Varianz und Standardabweichung
Varianz: D X:= E( X − EX)
2
2
Standardabweichung: σX := D X
2
7.2.1 diskrete ZVa
2
D X:=
diskrete Gleichverteilung:
1
n
∑x
k
2
k
1

−  ∑ xk 
n k

D X:= n ⋅ p ⋅ (1 − p)
2
2
Binomialverteilung:
Hypergeometrische Verteilung: D X:= n ⋅ p ⋅ (1 − p ) ⋅
2
D X=λ
2
POISSON-Verteilung:
N−n
N −1
7.2.2 stetige ZVa
2
stetige Gleichverteilung: D X:=
Normalverteilung:
( b − a)2
D X:= σ
2
12
2
- Seite 6 -
p=
M
N
- Gerald Meier: Stochastik Formeln -
1
2
D X:=  
α 
Exponentialverteilung:
2
7.2.3 Rechenregeln
( )
D X:= E X − ( EX)
2
2
2
 
2 X
D   = 1
 σX 
2
E( X − c) = minimal ⇔ c = EX
2
2
2
D ( aX + b ): = a ⋅ D X
X→
X
heißt Normierung
σX
X − EX
heißt Standardisierung
X→
σX
7.2.4 TSCHEBYSCHEFF-Ungleichung
p( X − EX ≥ c) ≤
2
D X
c
p( X − EX > c) <
2
p( X − EX ≤ c) > 1 −
2
D X
c
2
2
D X
c
p( X − EX < c) ≥ 1 −
2
2
D X
c
2
Weitere charakteristische Größen → Skript Seite 39 ff
8 Zufallsvektoren
8.1 Definition und Verteilungsfunktion
X 
 1
n
n-dimensionaler Zufallsvektor n-ZVe: X =  M :Ω → R
 
Xn 
x < y ⇔ x k < y k ∀k = 1,K , n
X < x: = {ω X(ω) < x}
Verteilungsfunktion: FX ( x) = p( X ≤ x) für x ∈ R
n
Sätze: 0 ≤ FX ( x) ≤ 1
FX ist in jeder Variablen xk monoton wachsend
FX ist in jeder Variablen xk rechtsseitig stetig
lim FX ( x) = 0 für alle k
x k →−∞
lim FX ( x) = 1 für alle k
x k →∞
Definitionen: FX = lim FZ ( x, y , u) Rand- oder Marginalverteilung
y , u →∞
F( X ,Y ) = lim FZ ( x, y , u)
u →∞
FX ( x y , u ) = p( X ≤ x Y = y , U = u ) bedingte Verteilungsfunktion von X
(
)
( )
( )
ZVa X1,...,Xn unabhängig FZ x1 ,K , x n = F1 x1 ⋅K⋅Fn x n
8.2 Diskrete n-ZVe
o.B.d.A. n=2
Einzelwahrscheinlichkeit EW: p ik = p X = x i , Y = y k
(
)
- Seite 7 -
- Gerald Meier: Stochastik Formeln -
Verteilungsfunktion VF:
F( X ,Y ) ( x, y ) =
∑p
ik
i , k :x i ≤ x , y k ≤ y
- Seite 8 -
- Gerald Meier: Stochastik Formeln -
(
)
:= p( Y = y ) = ∑ p
p i . := p X = x i = ∑ p ik
EW der Randverteilung:
k
p .k
unabhängige X und Y ⇔
k
ik
i
p ik = p i . ⋅ p .k
8.3 (Absolut-) Stetige ZVe
o.B.d.A. n=2
x y
FZ ( x, y ) =
Verteilungsfunktion VF:
Dichte der Randverteilung: f X ( x ) =
∫ ∫ f ( x, y)dydx
Z
−∞−∞
∞
∫ f(
−∞
X ,Y )
( x, y)dy
f ( X ,Y ) ( x, y )
Dichte der bedingten VF:
f X ( x y) =
X un Y unabhängig ⇔
f ( X , Y ) ( x , y ) = f X ( x) ⋅ f Y ( y )
f Y ( y)
8.4 Charakteristische Größen
o.B.d.A. n=2
∞
∞ ∞
−∞
−∞−∞
Erwartungswert: EX = ∫ x ⋅ f X ( x)dx =
∞ ∞
∫ ∫ x ⋅ f ( x, y)dxdy
Z
∫ ∫ g( x, y) ⋅ f ( x, y)dxdy
Eg( X, Y) =
Z
−∞−∞
(
)
bei diskreten ZVa: Eg( X , Y) = ∑ g x i , y k p ik
i ,k
(
)
Rechenregeln: E X1 +K+ X n = EX1 +K+ EX n
ZVa unabhängig ⇒ E( X, Y) = EX ⋅ EY
Kovarianz: cov( X, Y) = E( X − EX) ⋅ E( Y − EY)
→ cov( X, X) = D X
2
→ cov( X, Y ) = E( X, Y ) − EX ⋅ EY
→ cov( X, Y) = 0 ⇐ X, Y unabhängig
2
2
2
→ D ( X + Y ) = D X + D Y + 2 cov( X, Y)
 n
 n 2
2
→ X1,...,Xn paarweise unabhängig ⇒ D  ∑ X i  = ∑ D X i
 i =1  i =1
(
Kovarianzmatrix: Bik = cov X i , X k
)
→ Skript Seite 47
Korrelationskoeffizient: ρ( X, Y) =
cov( X, Y )
D X⋅ D Y
→ ρ( X, Y) ≤ 1
2
2
→ ρ( X , Y) = 1 ⇔ Y = aX + b mit sgn( a ) = sgn( ρ)
→ ρ( X, Y) = 0 ⇐ X und Y sind unabhängig
→ ρ=0 unkorreliert, ρ>0 positiv korreliert, ρ<0 negativ korreliert
- Seite 9 -
- Gerald Meier: Stochastik Formeln -
9 Grenzwerte
9.1 Konvergenz
Xn konvergiert sicher gegen X
falls lim X n ( ω) = X(ω)
X n → X
Xn konvergiert fast sicher gegen X


falls pω lim X n ( ω) = X(ω)  = 1
 n →∞

Xn 
→ X
Xn konvergiert stochastisch gegen X
falls lim p X n − X < ε = 1 ∀ε > 0
X n → X
Xn konvergiert in Verteilung gegen X falls lim FX n ( x) = FX ( x )
Definitionen: X n 
→ X
s
fs
p
iV
n →∞
n →∞
(
)
n →∞
Hierarchie: X n 
→ X ⇒ X n → X ⇒ X n 
→ X ⇒ X n → X
s
fs
p
iV
9.2 Übersicht
Kolmogoroff
n
2
 ∑ Xk − EXk 
 k =1

E
→0
n

2
2
n +  ∑ Xk − EXk 
 k =1

(
)
(
)
Markov
Xn genügt schwG
D Xn → 0
2
Tschebyscheff
xn unabhängig
oder unkorreliert
D Xn → 0
2
Kolmogoroff
xn unabhängig
2
∞
D Xk
∑ 2 <∞
k =0 n
Poisson
xn unabhängig
2-Pkt.-Verteilung
Xn genügt stG
xn unabhängig
identisch
D Xn muß nicht∃
2
- Seite 10 -
Bernoulli
xn unabhängig
2-Pkt.-Verteilung
identisch
Herunterladen