Definitionen Sätze und Formeln

Werbung
Definitionen
ρ(X, Y ) = p
C(X, Y )
V (X)V (Y )
empirischer:
rxy :=
P
1
(xj − x)(yj − y)
n
q P
P
1
1
(xj − x)2 · n
(yj − y)2
n
p 7→ inf{x ∈ R : F (x) ≥ p}
heißt Quantil-Funktion von X bzw.
F.
Quartil
Sei F −1 die Quantil-Funktion, dann
heißt F −1 ( 41 ) das untere und
F −1 ( 34 ) das obere Quartil von F
bzw. von X.
empirisch: Das 14 -Quantil heißt
unteres und das 34 -Quantil oberes
Quartil.
Quartilsabstand
Kovarianz
C(X, Y ) = E((X − EX)(Y − EY ))
∀θ ∈ Θ : Eθ (T ) = θ
= E(XY ) − E(X)E(Y )
kritischer Bereich
K ⊆ X mit:
Erwartungswert
(Ex. falls mit
X | · | < ∞)
E(X) :=
X(ω) · P ({ω})
ω∈Ω
x ∈ K =⇒ d1
X
=
empirisches p-Quantil.
Quantil-Funktion
X Zufallsvariable mit
Verteilungsfunktion F .
−1
F
: (0, 1) → R
Korrelationskoeffizient
Dichte
R
f : R → R≥0 mit R f (x) dx = 1
Rb
P ([a, b]) = a f (x) dx
Ereignis
A ⊆ Ω bzw. A ∈ A.
Elementarereignis: {ω}, ω ∈ Ω
Ergebnis
ω∈Ω
Erwartungstreue
x · P (X = x)
x∈R:P (X=x)>0
E(X) := E(X+ ) − E(X− )
Z
=
x · f (x) dx
R
bedingter Erwartungswert:
X
E(X|Y = y) =
xP (X = x|Y = y)
bedingte Erwartung:
k
E(X|Y ) : R → R, y 7→ E(X|Y = y)
iterierter:
E(X) = E(E(X|Y ))
Faltung
X(Ω) + Y (Ω) F. der Verteilungen
X, Y . (P X+Y = P X ∗ P Y )
Fehler 1./2. Art
1. Art: Wahre Hypothese abgelehnt.
2. Art: Falsche Hypothese nicht
verworfen.
Gütefunktion
g : Θ → [0, 1], θ 7→ Pθ (X ∈ K)
gϕ : Θ → [0, 1], θ 7→ Eθ (ϕ)
Häufigkeit
Sei (x1 , . . . , xn ) ∈ {a1 , . . . , as }n
Stichprobe.
absolute:
n
X
hj =
1{xi = aj }
i=1
relative:
hj
n
Kombination
n
Komk (mW ) = {(a1 , . . . , ak ) ∈ M
k
:
k
:
a1 ≤ · · · ≤ ak }
n
Komk (oW ) = {(a1 , . . . , ak ) ∈ M
a1 < · · · < a k }
n
|Komk (mW )| =
n
|Komk (oW )| =
n + k − 1 k
n
k
Konfidenzber./Bereichssch.
(X , (Pθ )θ∈Θ ) stat. Modell.
C : X → P(Θ)
heißt Konfidenzbereich oder
Bereichsschätzer.
Konfidenzniveau: C Konfidenzber.
zum Niveau 1 − α:
Pθ (A(θ)) ≥ 1 − α
Konsistenz
(Tn ) Schätzfolge: ∀ε > 0, ∀θ ∈ Θ :
lim Pθ (|Tn − θ| ≥ ε) = 0
n→∞
ϕn Testfolge: ∀θ ∈ Θ1 :
lim gϕn (θ) = 1
n→∞
Konvergenz nach W-keit
x ∈ X \ K =⇒ d0
x3 − x1
4
4
Lagemaß
n
l : {a1 , . . . , as } → R ist ein
Schätzer
Lagemaß, falls gilt:
(X , (Pθ )θ∈Θ ) stat. Modell.
l(x1 +a, . . . , xn +a) = l(x1 , . . . , xn )+a
T : X → Θ̃
Likelihood-Funktion
heißt Schätzer für θ.
Schätzfolge
Lx : Θ → [0, 1], θ 7→ Pθ (X = x)
Xn ⊆ Rn Stichprobenraum für
Marginalverteilung
X(n) = (X1 , . . . , Xn ) und
P W-Maß auf Ω1 × · · · × Ωn . j-te
Tn : Xn → Θ̃ Schätzer ∀n ∈ N, dann
Marginalverteilung:
heißt (Tn )n∈N Schätzfolge.
0
00
Pj (B) := P (Ω × B × Ω )
Schätzwert
mit
T (x) für x ∈ X .
0
Ω := Ω1 × · · · × Ωj−1
Spannweite
0
Ω := Ωj+1 × · · · × Ωn
(Analog für Zufallsvektoren.)
x(n) − x(1)
Maximum-LikelihoodStandardabweichung
Schätzung
θ̂ : X → Θ ist ML-Schätzwert, falls
q
∀x ∈ X :
σX := V (X)
Lx (θ̂(x)) = sup{Lx (θ) : θ ∈ Θ}
Median
empirische:
√
Sei F −1 die Quantil-Funktion, dann
s := s2
heißt F −1 ( 12 ) der Median von F
Standardisierung
bzw. von X.
X − EX
empirischer: Sei (x(1) , . . . , x(n) )
∗
X := p
geordnete
 Stichprobe.
V (X)
x n+1 , n = 2k + 1
)
(
2
x 1 :=
Statistisches Modell
 1 (x( n ) + x( n +1) ), n = 2k
2
2
(X , (Pθ )θ∈Θ ), wobei X der
2
2
Stichprobenraum einer
Mittel
Zufallvariable X, (Pθ )θ∈Θ Bild
arithmetisches:
n
einer bijektiven Abbildung des
1 X
xj
xn :=
Parameterraum Θ auf eine Klasse
n j=1
von W-Maßen P ist.
Streuungsmaß
getrimmtes/gestutztes:
σ : {a1 , . . . , as }n → R heißt ein
n−k
X
1
Streuungsmaß, falls gilt:
xt,α :=
x(j)
n − 2k j=k+1
σ(x1 +a, . . . , xn +a) = σ(x1 , . . . , xn )
Test
mit 0 < α < 12 und k := bnαc heißt
nichtrandomisiert:
α-getrimmtes Mittel.
ϕ : X → {0, 1}, x 7→ 1K
MQA
randomisiert:
2
ϕ : X → [0, 1]
M QAT (θ) = Eθ ((T − θ) )
X
Testfolge
2
=
(T (x) − θ) · Pθ (X = x)
Xn Stichprobenraum für
x∈X
X(n) = (X1 , . . . , Xn ) und
heißt mittlere quadratische
ϕn : Xn → [0, 1] Test ∀n ∈ N, dann
Abweichung vom T an der Stelle θ.
heißt (ϕn )n∈N Testfolge.
Moment
Übergangswahrscheinlichkeit
k-tes:
Z
k
k
E(X ) =
x · f (x) dx
P12 : Ω1 × P(Ω2 ) → [0, 1]
R
k-tes absolutes: Z
k
k
E(|X| ) =
|x| · f (x) dx
heißt Übergangs-W-keit, falls
∀ω1 ∈ Ω1
R
P12 (ω1 , ·) : P(Ω2 ) → [0, 1]
k-tes zentrales: Z
ein W-Maß ist.
k
k
E((X−EX) ) =
(x−EX) ·f (x) dx Unabhängigkeit
R
Ereignisse: A1 , . . . , An
Permutation
unanbhängig,
\ falls ∀T
Y⊆ 1, . . . , n
P(
Aj ) =
P (Aj )
n
k
P erk (mW ) = M
j∈T
n
P erk (oW ) = {(a1 , . . . , ak ) ∈ M
k
ai 6= aj (i 6= j)}
P
Yn → Y ⇐⇒ ∀ε > 0 :
n→∞
P (|Yn − Y | ≥ ε) → 0
Koppelung
Das zu einem W-Maß P1 und einer
Übergangs-W-keit P12 gehörende
W-Maß
P = P1 ⊗ P12
auf Ω1 × Ω2 heißt Koppelung von
P1 und P12 .
n
|P erk (mW )|
=n
k
n
|P erk (oW )| = n · · · (n − k + 1) = n
Quantil
empirisches:
Ist 0 < p < 1, so heißt
(
x
, np 6∈ N
xp := 1(bnp+1c)
2 (x(np) + x(np+1) ), np ∈ N
j∈T
Zufallsvariablen diskret:
X1 , . . . , Xn unabhängig, falls
∀Aj ⊆ Ωj bzw. ∀xj ∈ Ωj gilt:
P (X1 ∈ A1 , . . . , Xn ∈ An )
:
k
=
n
Y
f (xj )
j=1
Varianz
(Ex. falls E(X 2 ) existiert.)
2
2
2
V (X) = E(X − EX) = E(X ) − (EX)
Z
2
(x − EX) · f (x) dx
=
R
empirische:
2
s :=
n
1 X
2
(xj − xn )
n − 1 j=1
Verteilung
X : Ω → Ω̃ Zufallsvariable.
X
0
−1
0
P : P(Ω̃) → [0, 1], A 7→ P (X (A ))
heißt Verteilung von X.
Verteilungsfunktion
P : B1 → [0, 1] W-Maß.
F : R → [0, 1], x 7→ P ((−∞, x])
heißt Verteilungsfunktion von P .
Verzerrung
Verzerrung eines Schätzers T an der
Stelle θ:
bT (θ) = Eθ (T ) − θ
Wahrscheinlichkeit
bedingte:
P (A ∩ B)
P (A|B) =
P (B)
W-Funktion
(Ω, P ) W-Raum,
p : Ω → R, ω 7→ P ({ω})
ist W-Funktion zum W-Maß P .
W-Maß
P : P(Ω) → [0, 1] heißt W-Maß auf
Ω, falls gilt
1. P (A) ≥ 0
2. P (Ω) = 1
P
P
3. P ( j∈N Aj ) =
j∈N P (Aj )
W-Raum
(Ω, P ) bzw. (Ω, A, P ) mit A
σ-Algebra auf Ω, P W-Maß auf Ω
bzw. A.
|A|
Laplace’scher: falls P (A) := |Ω|
Zufallsvariable
(Ω, P ) bzw. (Ω, A, P ) W-Raum, A0
σ-Algebra auf Ω0 .
0
X :Ω→Ω
heißt Ω0 -wertige Zufallsvariable,
falls X A-A0 -mb.
Zufallsvektor
X heißt Zufallsvektor, falls es eine
Rd -wertige Zufallsvariable ist.
Sätze und Formeln
Bayes-Formel
Sei (An )n∈N eine Zerlegung von Ω.
Dann gilt:
P (Ak ) · P (B|Ak )
P (Ak |B) = P∞
j=1 P (Aj ) · P (B|Aj )
Binomialkoeffizient
n + 1 n n =
+
k
k
k−1
Binomischer Lehrsatz
k
(x + y) =
k X
k
j=0
j
j
·x ·y
k−j
Blockungslemma
Seien A1 , . . . , An unabhängig,
1 ≤ k ≤ n − 1, C ∈ σ(A1 , . . . , Ak ),
D ∈ σ(Ak + 1, . . . , An ). Dann sind
auch C und D unabhängig.
Cauchy-Schwarz
2
C(X, Y ) ≤ V (X) · V (Y )
Erwartungswert
E(aX) = a · EX
j=1
=
f (x) =
j=1
n
Y
P (Xj ∈ Aj )
P (X1 = x1 , . . . , Xn = xn )
n
Y
X1 , . . . , Xn unabhängig, falls gilt:
n
Y
F (x) =
F (xj )
P (Xj = xj )
j=1
Zufallsvariablen indiskret:
E(X + Y ) = EX + EY
|EX| ≤ E|X|
Sind X, Y unkorreliert gilt
außerdem:
E(X · Y ) = EX · EY
Verteilungen
Quantilsfunktion
Faltungsformel
für Dichten: Z
F (x) ≥ p ⇐⇒ x ≥ F
fX (t) · fY (x − t) dt
fX+Y (x) =
F (F
R
Gesetz großer Zahlen
Seien X1 , . . . , Xn unabhängige
Zufallvariablen mit existierender
Varianz.
Dann gilt ∀ε > 0: 

n
1 X
n→∞
P 
Xj − EX1 ≥ ε → 0
n j=1
Gesetz seltener Ereignisse
Ist (pn )n∈N eine Folge in [0, 1] mit
limn→∞ npn = λ für ein
0 < λ < ∞, so gilt:
k
n
n−k n→∞ −λ λ
k
→ e
pn (1 − pn )
k
k!
Kovarianz
−1
−1
(p)
(p)) ≥ p
−1
F (F (p)) = p ⇐⇒ p ∈ F (R)
Außerdem ist F −1 monoton
wachsend und linksseitig stetig.
Siebformel/Poincare-Sylvester
Für 1 ≤ ν ≤X
n sei
Sν :=
P (Ai1 ∩· · ·∩Aiν )
1≤i1 <···<iν ≤n
Steiner-Formel
2
∀a ∈ R : V (X) = E(X−a) −(EX−a)
Stetigkeit
Es gilt:
∞
[
P(
Aj ) = lim P (Aj )
C(X, Y ) = C(Y, X)
C(X, X) = V (X)
C(aX + b, cY + d) = ac · C(X, Y )
j→∞
j=1
ρ(aX + b, cY + d) = sgn(ac) · ρ(X, Y )
für jede aufsteigende Folge
X, Y sind unkorreliert,genau dann
A1 ⊆ A2 ⊆ · · · . Ebenso gilt:
wenn:
∞
\
C(X, Y ) = 0
P(
Aj ) = lim P (Aj )
j→∞
j=1
kleinste Quadrate
∗
∗
2
(a , b ) := arg min E(Y − a − bX)
für jede absteigende Folge
A1 ⊇ A2 ⊇ · · · .
Subadditivität
a,b∈R
ist bestimmt durch
∗
∗
a = EY − b EX
(
0
, V (X)V (Y ) = 0
∗
b = C(X,Y )
, V (X)V (Y ) > 0
V (X)
Methoden zur Dichtebest.
Methode 1:
X reelle Zufallsvariable mit
Verteilungsfunktion F , stückweise
stetiger Dichte f . Weiter sei
T : R → R stetig differenzierbar und
streng monoton wachsend, wobei
T 0 (x) 6= 0. Dann besitzt Y = T (X)
die Verteilungsfunktion:
−1
G(y) = F (T (y))
Z T −1 (y)
=
f (x) dx
−∞
(bzw. 1 − G(y) falls T monoton
fallend), sowie die Dichte:
f (T −1 (y))
g(y) =
|T 0 (T −1 (y))|
Methode 2:
X = (X1 , . . . , Xn ) k-dimensionaler
Zufallsvektor mit positiver Dichte f .
Weiter sei T : Rk → Rk stetig
differenzierbar und injektiv, wobei
T 0 (x) 6= 0. Dann besitzt Y = T (X)
die Dichte:
f (T −1 (y))
g(y) =
| det T 0 (T −1 (y))|
Methode 3:
Ist T : Rk → Rs mit s < k, so lässt
sich T häufig zu einer Abbildung
T 0 : Rk → Rk ergänzen, die die
Voraussetzungen von Methode 2
erfüllt. Die Gewünschte Dichte
ergibt sich dann aus
Marginalverteilungsbildung.
Markow-Ungleichung
Sei ϕ : [0, ∞) → [0, ∞) monoton
wachsend. Dann gilt für jede
Zufallsvariable Y mit Eϕ (|Y |) < ∞
und jedes ε > 0 mit ϕ(ε) > 0:
1
Eϕ (|Y |)
P (|Y | ≥ ε) ≤
ϕ(ε)
P(
∞
[
Aj ) ≤
j=1
∞
X
P (Aj )
fX (x) = λ · e
j=1
Transformationsformel
X
E(g(Z)) =
g(z) · P (Z = z)
z∈Rk
Z
=
g(x) dx
Rk
Tschebyschow-Ungleichung
1
P (|X − EX| ≥ ε) ≤ 2 · V (X)
ε
Varianz
2
V (X) = min E(X − a)
a∈R
1
λ2
geometrische Verteilung
X ∼ G(p) = N b(1, p)
Gibt die Wahrscheinlichkeit an, dass
vor dem ersten Treffer in einem
Bernoullischen Versuchsschema mit
Trefferwahrscheinlichkeit p genau k
Nieten gezogen werden.
k
P (X = k) = p · (1 − p)
X
k
FX (x) =
p · (1 − p)
V (X) =
k≤x
1−p
p
1−p
V (X) =
p2
Ist Y ∼ G(p) und X, Y unabhängig,
so gilt X + Y ∼ N b(2, p).
EX =
Gleichverteilung
X ∼ U (A)
diskrete:
Sei A = {x1 , . . . , xn }.
1
P (X = xj ) =
n
n
1 X
EX =
xj
n j=1


2 
n
n
X
1 X 2

V (X) =
xj − 
xj  
n j=1
j=1
indiskrete:
Sei A ∈ B1 .
2
V (a · X + b) = a · V (X)
V (X) ≥ 0
P (B) =
V (X) = 0 ⇐⇒ ∃a ∈ R : P (X = a) = 1
V (X + Y ) = V (X) + V (Y ) + 2C(X, Y )
V (X1 + · · · + Xn )
=
n
X
X
V (Xj ) + 2
j=1
C(Xi , Xj )
1≤i<j≤n
(siehe auch Steiner-Formel)
ZGWS
Sei Xn ∼ Bin(n, pn ) mit
limn→∞ npn (1 − pn ) = ∞. Dann
gilt:
!
Xn − npn
lim P a ≤ p
≤b
n→∞
npn (1 − pn )
=Φ(b) − Φ(a)
!
lim P
n→∞
Xn − npn
≤b
p
npn (1 − pn )
=Φ(b)
· 1[0,∞) (x)
1
EX =
λ
j=1
totale W-keit
Sei (An )n∈N eine Zerlegung von Ω.
Dann gilt:
∞
X
P (B) =
P (Aj ) · P (B|Aj )
−λx
Multinomialverteilung
X = (X1 , . . . , Xs ) ∼
M ult(n, p1 , . . . , ps )
s
Y
k
x
·
pj j
P (X = x) =
x1 , . . . , x s
j=1
Xk ∼ Bin(n, pk )
k
X
Xij ∼ Bin(n,
j=1
V (X) = np(1 − p)
Exponentialverteilung
X ∼ Exp(λ)
−λx
FX (x) = (1 − e
) · 1[0,∞) (x)
ν=1
2
EX = np
Ist Y ∼ Bin(m, p) und X, Y
unabhängig, so gilt
X + Y ∼ Bin(n + m, p).
(Summation über ν-elementige
Teilmengen.) Dann gilt:
n
n
[
X
ν−1
P(
Aj ) =
(−1)
Sν
j=1
Binomialverteilung
X ∼ Bin(n, p) n
k
n−k
· p · (1 − p)
P (X = k) =
k
X n
k
n−k
FX (x) =
· p · (1 − p)
k
k≤x
λ1 (A ∩ B)
λ1 (A)
λ1 (A ∩ (−∞, x])
λ1 (A)
1
fX (x) =
· 1A (x)
λ1 (A)
FX (x) =
hypergeometrische Verteilung
X ∼ Hyp(n, r, s)
Gibt die Wahrscheinlichkeit an,
beim n-maligen Ziehen ohne
Zurücklegen k der r roten von
insgesamt r + sKugelnzu ziehen.
r
s
k · n−k
P (X = k) =
r+s
n
rn
EX =
r+s
V (X) =
rs
r
r+s−n
1−
r+s
r+s
r+s−1
k
X
pij )
j=1
C(Xi , Xj ) = −npi pj
s
ρ(Xi , Xj ) = −
pi pj
(1 − pi )(1 − pj )
negative Binomialverteilung
X ∼ N b(r, p)
Gibt die Wahrscheinlichkeit an, dass
vor dem r-ten Treffer in einem
Bernoullischen Versuchsschema mit
Trefferwahrscheinlichkeit p genau k
Nieten gezogen werden.
k + r − 1
r
k
· p · (1 − p)
P (X = k) =
k
X k + r − 1 r
k
FX (x) =
· p · (1 − p)
k
k≤x
1−p
p
1−p
V (X) = r ·
p2
Ist Y ∼ N b(s, p) und X, Y
unanhängig, so gilt
X + Y ∼ N b(r + s, p).
Normalverteilung
2
X ∼ N (µ, σ
)
x−µ
FX (x) = Φ
σ
!
Z x
y2
1
exp −
Φ(x) =
dy
√
2
2π
−∞
EX = r ·
Φ(x) = 1 − Φ(−x)
−1
Φ
−1
(x) = −Φ
(1 − x)
1
· exp
fX (x) = √
σ 2π
−
(x − µ)2
2σ 2
!
EX = µ
2
V (X) = σ
Ist Y ∼ N (µ̃, σ̃ 2 ) und X, Y
unanhängig, so gilt
X + Y ∼ N (µ + µ̃, σ 2 + σ̃ 2 ).
mehrdimensionale:
X ∼ Nk (µ, Σ)
Dabei seien Y1 , . . . , Yk ∼ N (0, 1)
unabhängig, A ∈ Rk×k regulär,
Σ = A · A⊥ , µ ∈ Rk und
X := A · Y + µ. Dann gilt:
1
fX (x) = p
(2π)k · det Σ
1
⊥ −1
· exp − (x − µ) Σ (x − µ)
2
Poisson-Verteilung
X ∼ P o(λ)
λk
−λ
P (X = k) = e
·
k!
X −λ λk
FX (x) =
e
·
k!
k≤x
EX = λ
V (X) = λ
Ist Y ∼ P o(µ) und X, Y
unabhängig, so gilt
X + Y ∼ P o(λ + µ). In diesem Fall
ist
λ
X|X+Y =n
P
= Bin n,
λ+µ
Herunterladen