Formelsammlung Statistik 1 Deskriptive Statistik

Werbung
Fachbereich Grundlagenwissenschaften
Prof. Dr. Viola Weiÿ
Formelsammlung Statistik
1
Deskriptive Statistik
1.1 Eindimensionale Häugkeitsverteilungen
Merkmal:
X
Datenmenge (Stichprobe) vom Umfang
x(1) , x(2) , ..., x(n)
geordnete Stichprobe:
Ausprägungen von
X
n ∈ N: x1 , x2 , ..., xn
(falls
X
mit
x(1) ≤ x(2) ≤ ... ≤ x(n)
nicht stetiges Merkmal):
a1 , a2 , ..., am
mit
m∈N
1.1.1 Häugkeiten
Absolute Häugkeit:
H(ai )
i = 1, ..., m
für
Anzahl des Vorkommens der Ausprägung ai vom Merkmal X in der Stichprobe.
0 ≤ H(ai ) ≤ n
Es gilt:
für alle Ausprägungen
H(a1 ) + H(a2 ) + ... + H(am ) = n
Relative Häugkeit:
h(ai ) =
1
n
H(ai )
ai
.
für
i = 1, ..., m
Anteil des Vorkommens der Ausprägung ai vom Merkmal X in der Stichprobe.
0 ≤ h(ai ) ≤ 1
Es gilt:
für alle Ausprägungen
h(a1 ) + h(a2 ) + ... + h(am ) = 1
ai
.
1.1.2 Summenhäugkeiten (kumulative Häugkeiten)
Voraussetzung: Die Ausprägungen vom Merkmal
... < am
X
lassen sich der Gröÿe nach ordnen, d.h.
a1 < a2 <
.
Absolute Summenhäugkeit:
S(ai ) = H(a1 ) + H(a2 ) + ... + H(ai )
i
X
X
=
H(ak ) =
H(ak )
für
i = 1, ..., m.
ak ≤ai
k=1
Anzahl des Vorkommens aller Ausprägungen vom Merkmal X in der Stichprobe, die kleiner oder gleich
sind.
ai
Es gilt:
0 ≤ S(a1 ) ≤ S(a2 ) ≤ ... ≤ S(am ) = n.
Relative Summenhäugkeit:
s(ai ) = n1 S(ai ) = h(a1 ) + h(a2 ) + ... + h(ai )
=
i
X
h(ak ) =
X
h(ak )
für
i = 1, ..., m.
ak ≤ai
k=1
Anteil des Vorkommens aller Ausprägungen vom Merkmal X in der Stichprobe, die kleiner oder gleich
sind.
ai
Es gilt:
0 ≤ s(a1 ) ≤ s(a2 ) ≤ ... ≤ s(am ) = 1.
1
1.1.3 Empirische Verteilungsfunktion
F : R −→ [0, 1]
F (x) =
X
mit
h(ai ) =
ai ≤x

















0
x < a1
s(a1 )
a1 ≤ x < a2
s(a2 )
a2 ≤ x < a3
:
:
s(am−1 ) am−1 ≤ x < am
1
am ≤ x
Eigenschaften der empirischen Verteilungsfunktion:
•
•
•
•
•
Treppenfunktion
monoton wachsend
a1 , ..., am
h(ai ), i = 1, ..., m
Sprungstellen (Unstetigkeitsstellen): Merkmalsausprägungen
Sprunghöhe an Sprungstelle
ai :
relative Häugkeit
rechtsseitig stetig
1.1.4 Mittelwerte
1.
Modalwert: xD
Ausprägung vom Merkmal X mit gröÿter vorkommender Häugkeit in der Stichprobe.
(xD muÿ nicht eindeutig bestimmt sein.)
2.
Median (Zentralwert): xZ
Wert in der Mitte der geordneten Stichprobe, d.h.
(
xZ =
x( n+1 )
1
2
n ungerade
2
x( n2 ) + x( n2 +1)
n gerade
(xZ muÿ nicht mit einem Wert der Stichprobe übereinstimmen.)
3.
arithmetisches Mittel:
x
n
x =
1
1X
(x1 + x2 + ... + xn ) =
xi
n
n
i=1
=
m
m
X
1X
H(ai ) · ai =
h(ai ) · ai
n
i=1
4.
geometrisches Mittel:
xG =
falls alle
x1 · ... · xn =
q
n
H(a )
H(a )
h(a )
m)
a1 1 · ... · am m = a1 1 · ... · ah(a
,
m
lg xG = n1 (lg x1 + ... + lg xn )
harmonisches Mittel:
xH =
Es gilt:
xG
xi , ai > 0.
Äquivalente Formel:
5.
√
n
i=1
1
x1
xH
n
+ ... +
1
xn
=
n
H(a1 )
a1
+ ... +
xH ≤ xG ≤ x .
2
H(am )
am
=
1
h(a1 )
a1
+ ... +
h(am )
am
1.1.5 Quantile
α
α ∈ (0, 1): xα
- Quantil für
Aufteilung der geordneten Stichprobe bezüglich α·100%, d.h. mindestens α·100% der Daten sind kleiner
oder gleich xα und mindestens (1 − α) · 100%
der Daten sindgröÿer oder gleich xα .
(
Berechnungsvorschrift für
[αn]
xα :
1
2
xα =
bedeutet ganzzahliger Anteil von
x(αn) + x(αn+1)
αn ganzzahling
x([αn]+1)
αn,
z.B.
αn nicht ganzzahlig
[5, 61] = 5.
x0.5 = xZ .
x0.25 , x0.5 , x0.75 heiÿen Quartile.
x0.75 − x0.25 heiÿt Quartilsabstand.
Es gilt:
1.1.6 Streuungsmaÿe
1.
Spannweite:
2.
mittlere absolute Abweichung von einem Mittelwert:
w = max{x1 , ..., xn } − min{x1 , ..., xn } = x(n) − x(1)
n
1X
|xi − x|
n
i=1
n
1X
=
|xi − xZ |
n
dx =
dxZ
mittlere absolute Abweichung vom arithmetischen Mittel
mittlere absolute Abweichung vom Zentralwert
i=1
analoge Formeln mit absoluten oder relativen Häugkeiten, z.B.:
dxZ
3.
m
m
i=1
i=1
X
1X
=
|ai − xZ | · H(ai ) =
|ai − xZ | · h(ai )
n
Varianz und Standardabweichung:
s2 mittlere quadratische Abweichung vom arithmetischen Mittel:
n
m
m
1 X
1 X
n X
s2 =
(xi − x)2 =
(ai − x)2 · H(ai ) =
(ai − x)2 · h(ai )
n−1
n−1
n−1
i=1
i=1
i=1
v
u
n
X
√
u 1
Standardabweichung: s =
s2 = t
(xi − x)2
n−1
Varianz
i=1
andere Berechnungsvorschrift für
4.
Variationskoezient:
v=
s
x
s2 :
falls
1
s2 =
n−1
n
X
!
x2i
2
− n(x)
i=1
x 6= 0.
1.1.7 Klassierte Daten
n) in disjunkte Klassen K1 , ..., Km mit Klassenmitten
∗
∗
x1 , ..., xm und absoluten bzw. relativen Klassenhäugkeiten der i-ten Klasse H(Ki ), h(Ki ), i = 1, ..., m.
m
m
X
1X ∗
Dann gilt: x =
xi · H(Ki ) =
x∗i · h(Ki )
n
i=1
i=1
Klasseneinteilung der Daten (Stichprobenumfang
m
s2 =
m
1 X ∗
n X ∗
(xi − x)2 · H(Ki ) =
(xi − x)2 · h(Ki )
n−1
n−1
i=1
i=1
∗
Andere Formeln analog mit xi als Repräsentant für die i-te Klasse
3
Ki , i = 1, ..., m.
1.2 Zweidimensionale Häugkeitsverteilungen
a1 , ..., ap , p ∈ N
Merkmal
mit Ausprägungen b1 , ..., bq , q ∈ N
Datenmenge (x1 , y1 ), ..., (xn , yn ), n ∈ N
Merkmal
X
Y
mit Ausprägungen
1.2.1 Häugkeiten, bedingte Häugkeiten, Unabhängigkeit
Häugkeiten:
Absolute Häugkeit:
H(ai , bj )
Anzahl
i = 1, ..., p, j = 1, ..., q
des Vorkommens von (ai , bj )
für
h(ai , bj ) =
Relative Häugkeit:
Absolute Randhäugkeit für
Relative Randhäugkeit für
Absolute Randhäugkeit für
Relative Randhäugkeit für
1
n H(ai , bj ) für
in der Stichprobe.
i = 1, ..., p, j = 1, ..., q
X : H(ai ) = H(ai , b1 ) + ... + H(ai , bq )
X:
h(ai ) =
1
n H(ai )
Y:
h(bj ) =
Randverteilung von
X : H(a1 ), ..., H(ap )
Randverteilung von
Y : H(b1 ), ..., H(bq )
bzw.
bzw.
i = 1, ..., p
= h(ai , b1 ) + ... + h(ai , bq )
Y : H(bj ) = H(a1 , bj ) + ... + H(ap , bj )
1
n H(bj )
für
für
für
i = 1, ..., p
j = 1, ..., q
= h(a1 , bj ) + ... + h(ap , bj )
für
j = 1, ..., q
h(a1 ), ..., h(ap )
h(b1 ), ..., h(bq )
Darstellung: Kontingenztabelle
b1
...
bq
Zeilensumme
a1
a2
H(a1 , b1 )
H(a2 , b1 )
...
H(a1 , bq )
H(a2 , bq )
H(a1 )
H(a2 )
.
.
.
.
.
.
.
.
.
.
.
.
ap
H(ap , b1 )
H(b1 )
H(ap , bq )
H(bq )
H(ap )
n
Y
X
Spaltensumme
...
...
...
Bedingte Häugkeiten:
h(ai | bj ) =
H(ai , bj )
h(ai , bj )
=
H(bj )
h(bj )
i = 1, ..., p, j = 1, ..., q
und
H(bj ) 6= 0
Relative Häugkeit für das Auftreten der Ausprägung ai unter der Bedingung, daÿ Y die Ausprägung
bj annimmt.
h(bj | ai ) =
H(ai , bj )
h(ai , bj )
=
H(ai )
h(ai )
i = 1, ..., p, j = 1, ..., q
und
H(ai ) 6= 0
Relative Häugkeit für das Auftreten der Ausprägung bj unter der Bedingung, daÿ X die Ausprägung
ai annimmt.
Empirische Unabhängigkeit von zwei Merkmalen:
alle i = 1, ..., p und j = 1, ..., q
1
H(ai , bj ) = H(ai ) · H(bj ) bzw. h(ai , bj ) = h(ai ) · h(bj ) .
n
Zwei Merkmale heiÿen empirisch unabhängig, wenn für
4
gilt:
1.2.2 Zusammenhangsmaÿe
1.
Kontingenzkoezient nach Pearson (für nominale Merkmale X
s
C=
2
χ =
χ2
+n
Y ):
mit
χ2
p X
q
X
(H(ai , bj ) − Ĥ(ai , bj ))2
Ĥ(ai , bj ) = n1 H(ai ) · H(bj ) .
und
Ĥ(ai , bj )
i=1 j=1
und
Es gilt:
• X ,Y
•
empirisch unabhängig
Je stärker die Abhängigkeit von
s
• 0≤C≤
•
X
Ckorr
und
Y
.
ist, desto gröÿer ist
C.
min(p, q) − 1
<1
min(p, q)
Korrigierter Kontingenzkoezient:
Für
2.
⇐⇒ χ2 = 0 ⇐⇒ C = 0
gilt
Ckorr
C
=
Cmax
s
mit
Cmax =
min(p, q) − 1
min(p, q)
.
0 ≤ Ckorr ≤ 1.
Korrelationskoezient nach Pearson (für metrische Merkmale X
Maÿzahl für die Stärke des linearen Zusammenhangs von X und Y :
und
Y ):
n
P
rXY
(xi − x)(yi − y)
Cov(X, Y )
i=1
s
=
=s
sX · sY
n
n
P
P
(xi − x)2 ·
(yi − y)2
i=1
i=1
n
1
1 X
(xi − x)(yi − y) =
Cov(X, Y ) =
n−1
n−1
n
X
i=1
X
empirische Kovarianz der Merkmale
sX
,
sY
Standardabweichung von
mit
X
und
Y
bzw.
Y
!
xi yi − nx y
i=1
und
Es gilt:
• −1 ≤ rXY ≤ 1
• X ,Y
•
empirisch unabhängig
Umkehrung gilt nicht, d.h.
• rXY > 0:
Je gröÿer
rXY ,
=⇒ Cov(X, Y ) = 0 =⇒ rXY = 0
rXY = 0 6=⇒ X, Y
.
empirisch unabhängig.
desto stärker ist der lineare Zusammenhang zwischen
lineare Zusammenhang hat positiven Anstieg, wachsende Werte für
wachsende Werte für
(Analog für
3.
X
dann hat der lineare Zusammenhang negativen Anstieg.)
Rangkorrelationskoezient nach Spearman (für ordinale Merkmale X
6
rSP = 1 −
Ri
Ri0
n
P
und
(Ri − Ri0 )2
i=1
(n − 1)n(n + 1)
Positionsnummer von
Positionsnummer von
mit
xi in der geordneten Stichprobe x(1) ≤ ... ≤ x(n)
yi in der geordneten Stichprobe y(1) ≤ ... ≤ y(n)
5
Der
bedeuten ebenfalls
Y.
rXY < 0,
X, Y .
und
Y ):
Es gilt:
• −1 ≤ rSP ≤ 1
• rSP > 0:
rSP , desto stärker ist der Zusammenhang zwischen X, Y , wobei zu
Ri von X auch wachsende Rangzahlen Ri0 von Y gehören.
< 0, dann gehören zu wachsenden Rangzahlen Ri von X fallende Rang-
Je gröÿer
wachsenden Rangzahlen
rSP
0
zahlen Ri von Y .)
(Analog für
1.2.3 Regressionsanalyse
Hinweis: Das
P
- Zeichen steht in allen Formeln für
n
P
.
i=1
1.
Gerade (y-x Regression):
P
a =
b =
2.
n
P
P
P
P
P
y x2i − x (xi yi )
x2i · yi − xi · (xi yi )
P 2
P 2
=
n xi − ( xi )
(n − 1)s2X
P
P
P
(xi yi ) − xi · yi
Cov(X, Y )
P 2
P 2
=
n xi − ( xi )
s2X
Gerade (x-y Regression):
a0
b0
P
=
=
n
P
P
P
(xi yi ) − xi · yi
Cov(X, Y )
P 2
P 2
=
n yi − ( yi )
s2Y
y -x
Verwendete Formeln:
Parabel:
a, b
P
4.
und
c
yi
P
x i yi
P
x2i yi
b =
und
Regressionsfunktionen schneiden sich im Punkt
P
xi und y = n1
yi
P
1 P
1
(xi − x)2 und s2Y = n−1
(yi − y)2
s2X = n−1
1 P
Cov(X, Y ) = n−1
(xi − x)(yi − y)
x=
1
n
x-y
P
ŷ = a + bx + cx2
sind Lösung des linearen Gleichungssystems:
P
P
= a·n
+ b · xi + c · x2i
P
P
P
= a · xi + b · x2i + c · x3i
P
P
P
= a · x2i + b · x3i + c · x4i
Potenzfunktion:
log a =
x̂ = a0 + b0 y
P
P
P
P
P
x yi2 − y (xi yi )
yi2 · xi − yi · (xi yi )
P
P
=
n yi2 − ( yi )2
(n − 1)s2Y
Es gilt: Die linearen
3.
ŷ = a + bx
ŷ = a · xb
P
P
P
P
(log xi )2 · log yi − log xi · (log xi · log yi )
P
P
n (log xi )2 − ( log xi )2
n
P
P
P
(log xi · log yi ) − log xi · log yi
P
P
n (log xi )2 − ( log xi )2
6
(x, y).
5.
Exponentialfunktion:
P
log a =
n
log b =
6.
x2i ·
P
a =
b =
n
,
b>0
P
P
log yi − xi · (xi · log yi )
P
P
n x2i − ( xi )2
P
P
P
(xi · log yi ) − xi · log yi
P
P
n x2i − ( xi )2
Logistische Funktion:
P
ŷ = a · bx
x2i ·
P
ŷ =
k
1 + ea+bx
b<0
,
mit bekannter Sättigungsgrenze
k
P
P
ln( yki − 1) − xi · (xi · ln( yki − 1))
P
P
n x2i − ( xi )2
P
P
P
(xi · ln( yki − 1)) − xi · ln( yki − 1)
P
P
n x2i − ( xi )2
Bestimmtheitsmaÿ:
n
P
B=
(ŷi − y)2
i=1
n
P
mit
ŷi = f (xi )
für die Regressionsfunktion
f.
(yi − y)2
i=1
Bei dieser Denition von
B
muÿ die Regressionsfunktion
f
von einem der oben genannten Funktions-
typen sein (linear in den Regressionsparametern).
Es gilt:
• 0≤B≤1
• B
beschreibt den Anteil der Varianz der Stichprobe, der durch die gewählte Regressionsfunkti-
on erklärt wird. D.h. je gröÿer
B
ist, umso besser ist der gewählte Funktionstyp geeignet zur
Beschreibung des Zusammenhangs von
•
Bei linearer Regression gilt
X
und
Y.
2 .
B = rXY
1.3 Zeitreihen
X , Beobachtungszeitpunkte t1 , ..., tn
Stichprobe (t1 , x1 ), ..., (tn , xn )
Komponenten einer Zeitreihe:
Trend T
Metrisches Merkmal
konjunkturelle Komponente
Saisonkomponente
Restkomponente
vereinfachte Modelle:
K
S
R
additives Modell
multiplikatives Modell
X =T +S
X =T ·S
7
1.3.1 Methoden der Trendermittlung
1.
Regression
Formeln siehe Regressionsanalyse bei zweidimensionalen Häugkeitsverteilungen, z.B.
Gerade:
x̂ = a + bt
P
P
P
t2i · xi − ti · (ti xi )
P
P
n t2i − ( ti )2
P
P
P
n (ti xi ) − ti · xi
P
P
n t2i − ( ti )2
P
a =
b =
Hinweise: Auf Transformation der Zeitpunkte achten!
Das
P
- Zeichen steht in allen Formeln für
n
P
.
i=1
2.
Glättung durch gleitende Durchschnitte
Ordnung: Anzahl benachbarter Werte der Zeitreihe, aus denen das arithmetische
Mittel gebildet wird.
•
ungerade Ordnung, d.h. j = 3, 5, 7, ...:
1
j (x1
1
j (x2
+ ... + xj )
+ ... + xj+1 )
.
.
.
1
j (xn−j+1
+ ... + xn )
n Werten der
n − j + 1 Werte.
Aus
•
j
noch
j
noch
gerade Ordnung, d.h. j = 2, 4, 6, ...:
1 1
j ( 2 x1
1 1
j ( 2 x2
+ x2 + ... + xj + 21 xj+1 )
+ x3 + ... + xj+1 + 12 xj+2 )
.
.
.
1 1
j ( 2 xn−j
+ xn−j+1 + ... + xn−1 + 12 xn )
n Werten
n − j Werte.
Aus
3.
Zeitreihe ergeben sich nach dem Glätten mit ungerader Ordnung
der Zeitreihe ergeben sich nach dem Glätten mit gerader Ordnung
Exponentielles Glätten
Exponentielles Glätten 1. Ordnung mit Startwert
x̃t = αxt−1 + (1 − α)x̃t−1
und Glättungsfaktor
t = 2, ..., n
x̃1 = x1 .
Auswirkung des Glättungsfaktors α:
α dicht bei 1 =⇒ starke Brücksichtigung jüngerer Werte der Zeitreihe,
α dicht bei 0 =⇒ starke Brücksichtigung älterer Werte der Zeitreihe.
∗
Erstellung kurzfristiger Prognosen: x = x̃n+1 = αxn + (1 − α)x̃n
Wahl des Startwertes
x̃1
für
x̃1
z.B.
8
α ∈ (0, 1):
1.3.2 Ermittlung der Saisonkomponente
Ausgangspunkt:
Zeitreihe mit periodischen saisonalen Einüssen
Gegeben:
Beobachtungswerte von
Bezeichnungen:
X
P
für
Perioden mit je
k
Unterzeiträumen
z.B.
P
xp,j
j -ten Unterzeitraum in der p-ten Periode,
j = 1, ..., k
Trendwert für den j -ten Unterzeitraum in der p-ten Periode,
p = 1, ..., P , j = 1, ..., k (ermittelt z.B. durch Regression)
Jahre mit je 12 Monaten oder je 4 Quartalen
Beobachtungswert für den
p = 1, ..., P
x̂p,j
Saisonkomponente sp,j
für den
,
j -ten
Unterzeitraum in der
für additives Modell:
sp,j = xp,j − x̂p,j
für multiplikatives Modell:
sp,j =
mittlere Saisonkomponente sj
sj =
Prognosewert x∗P +1,j
1
P (s1,j
für den
xp,j
x̂p,j
für den
p-ten
Periode,
p = 1, ..., P
,
.
j -ten
Unterzeitraum,
j = 1, ..., k :
+ ... + sP,j )
j -ten
Unterzeitraum in Periode
für additives Modell:
x∗P +1,j = x̂P +1,j + sj
für multiplikatives Modell:
x∗P +1,j = x̂P +1,j · sj
9
,
.
P + 1, j = 1, ..., k :
,
j = 1, ..., k :
1.4 Indexzahlen
Hinweis: Das
P
- Zeichen steht in allen Formeln für
n
P
. Dabei bezeichnet
n die Anzahl der betrachteten
i=1
Güter.
Index nach
Preisindex
P
ILA;t
0 ,t
LASPEYRES
P
ILO;t
0 ,t
LOWE
IFP;t0 ,t =
FISHER
(0)
qi
(t)
qi
(0)
pi
(t)
pi
=P
(t) (0)
pi qi
M
ILA;t
0 ,t
(0) (0)
pi qi
P (t) (t)
pi qi
IPPA;t0 ,t = P (0)
(t)
pi qi
PAASCHE
Dabei bedeuten für
P
Mengenindex
P
=P
P
=P
(t) (0)
qi pi
(0) (0)
qi p i
P (t) (t)
qi pi
IPMA;t0 ,t = P (0)
(t)
qi pi
(t)
p i qi
M
ILO;t
0 ,t
(0)
p i qi
q
P
ILA;t
· IPPA;t0 ,t
0 ,t
IFM;t0 ,t =
P
=P
(t)
qi p i
(0)
qi p i
q
M
ILA;t
· IPMA;t0 ,t
0 ,t
i = 1, ..., n
:
Menge des Gutes
i
in der Basisperiode
:
Menge des Gutes
i
in der Berichtsperiode
:
Preis des Gutes
i
in der Basisperiode
:
Preis des Gutes
i
in der Berichtsperiode
Hinweis zu den Gröÿen
qi
und
pi
t0 ,
t,
t0 ,
t.
in den Formeln von LOWE,
i = 1, ..., n:
t
qi =
1 X (k)
qi
t+1
(arithmetisches Mittel der Werte der Perioden 0 bis t),
k=0
t
pi =
1 X (k)
pi
t+1
(arithmetisches Mittel der Werte der Perioden 0 bis t).
k=0
10
2
Wahrscheinlichkeitsrechnung
2.1 Zufällige Ereignisse und Wahrscheinlichkeiten
Zufallsexperiment: Experiment, dessen mögliche Versuchsausgänge bekannt sind, dessen konkretes Ergebnis aber nicht vorhersagbar ist.
Grundraum
Ω:
Menge aller möglichen Versuchsausgänge eines Zufallsexperiments.
A:
Zufälliges Ereignis
Teilmenge vom Grundraum, d.h.
A
Das zufällige Ereignis
suchsausgang
ω
A
zu
sicheres Ereignis:
gehört, d.h.
{ω},
Elementarereignis:
Ω,
A ⊆ Ω.
tritt ein bei Durchführung des Zufallsexperimentes, wenn der konkrete Ver-
ω ∈ A.
einelementige Teilmenge von
Ω, {ω} ⊆ Ω,
tritt immer ein bei Durchführung des Zufallsexperimentes,
unmögliches Ereignis:
∅,
Ω ⊆ Ω,
tritt nie ein bei Durchführung des Zufallsexperimentes,
∅ ⊆ Ω.
Zufällige Ereignisse sind Mengen!
Übertragung von Operationen für Mengen auf zufällige Ereignisse:
A⊆B
A
zieht B nach sich, d.h.,
A
wenn
C =A∪B
eintritt, dann tritt auch
C
C = A1 ∪ ... ∪ An
D = A1 ∩ ... ∩ An
Dierenz der Ereignisse, d.h.
E
tritt genau dann ein, wenn
eingetreten sind.
A
B nicht eintritt.
A \ B 6= B \ A.
eintritt und
komplementäres Ereignis (Gegenereignis), d.h.
A
tritt genau dann ein, wenn
A∪A=Ω
A∩A=∅
,
A∪B =A∩B
,
A\B =A∩B
,
,
Zwei Ereignisse
A
und
B
A∩B =A∪B
heiÿen
A
(A) = A
(A ∪ B) ∩ C = (A ∩ C) ∪ (B ∩ C)
d.h.
A, B
.
Die Dierenz ist nicht kommutativ, d.h.
Es gilt:
eintritt.
.
tritt genau dann ein, wenn beide Ereignisse
Analog für
A=Ω\A
A, B
Produkt der Ereignisse A und B , d.h.
D
E =A\B
ein.
tritt genau dann ein, wenn mindestens eins der Ereignisse
Analog für
D =A∩B
B
Summe der Ereignisse A und B , d.h.
,
nicht eintritt.
,
,
(A ∩ B) ∪ C = (A ∪ C) ∩ (B ∪ C)
.
disjunkt (unvereinbar), wenn sie nicht gleichzeitig eintreten können,
A ∩ B = ∅.
Das Mengensystem
1.
Ω∈F
F
heiÿt
Ereignisfeld zum Grundraum Ω, wenn gilt:
.
2. Wenn
A ∈ F =⇒ A ∈ F
3. Wenn
A, B ∈ F =⇒ A ∪ B ∈ F
.
. (Wenn
A1 , A2 , ... ∈ F =⇒
∞
S
Ai ∈ F)
.
i=1
1.
Klassische Denition der Wahrscheinlichkeit (Laplace):
Voraussetzungen Laplace-Prinzip:
•
•
Endlicher Grundraum Ω = {ω1 , ..., ωn } bestehend aus n möglichen Versuchsausgängen und
alle Versuchsausgänge sind gleichberechtigt hinsichtlich der Chance ihres Eintretens bei
Durchführung des Zufallsexperimentes.
Dann gilt für
k≤n
und
A = {ωi1 , ..., ωik } ⊆ Ω
11
P (A) =
k
=
n
Anzahl günstiger Fälle für das Eintreten von
A
Anzahl aller möglichen Fälle
P ({ω1 }) = ... = P ({ωn }) =
Damit gilt für die Elementarereignisse:
.
1
n .
Anwendung: Urnenmodell
N
Aus einer Urne mit
Kugeln
k
Kugeln, wobei
M
der Kugeln weiÿ und
ohne Zurücklegen gezogen, M ≤ N , n ≤ N . Es sei Ak
weiÿe Kugeln gezogen werden,
k≤n
und
P (Ak ) =
2.
M
k
schwarz sind, werden
n
Dann gilt:
N −M
·
n−k
N
n
.
Statistische Denition der Wahrscheinlichkeit (von Mises):
n
m
hn (A) =
m
n
Anzahl der Durchführungen eines Zufallsexperimentes,
Anzahl des Eintretens eines zufälligen Ereignisses
relative Häugkeit für das Eintreten von
Statistische Wahrscheinlichkeit für
3.
k ≤ M.
N −M
das zufällige Ereignis, daÿ genau
A:
A, m ≤ n ,
A.
P (A) = lim hn (A)
n→∞
.
Axiomatische Denition der Wahrscheinlichkeit (Kolmogorov):
Für einen Grundraum
eine reelle Zahl
P (A)
Ω mit Ereignisfeld F
zuordnet,
heiÿt die Funktion
Wahrscheinlichkeit (Wahrscheinlichkeitsmaÿ), wenn gilt:
Axiom 1:
0 ≤ P (A) ≤ 1
Axiom 2:
P (Ω) = 1
Axiom 3:
Für A, B ∈ F mit A ∩ B = ∅ gilt
P (A ∪ B) = P (A) + P (B) (Additivität).
Axiom 3a:
Für
Das Tripel
P : F −→ [0, 1], die jedem A ∈ F
für alle
A∈F
.
.
A1 , A2 , ... ∈ F mit Ai ∩ Aj = ∅ für alle i 6= j gilt
P (A1 ∪ A2 ∪ ...) = P (A1 ) + P (A2 ) + ... (σ -Additivität).
[Ω, F, P ]
heiÿt
Wahrscheinlichkeitsraum.
Aus den Axiomen werden weitere Eigenschaften von
P
abgeleitet:
1.
P (∅) = 0
2.
P (A) = 1 − P (A)
für alle
3.
P (A) ≤ P (B)
A, B ∈ F
4.
P (B \ A) = P (B) − P (A ∩ B) für alle A, B ∈ F und
P (B \ A) = P (B) − P (A) für A, B ∈ F mit A ⊆ B ,
5.
P (A ∪ B) = P (A) + P (B) − P (A ∩ B)
6.
P (A) = P ({ωi1 }) + ... + P ({ωik })
,
für
A∈F
mit
,
A⊆B
für
,
für alle
A∈F
mit
A, B ∈ F
,
A = {ωi1 , ..., ωik }
Bedingte Wahrscheinlichkeit:
Es sei
[Ω, F, P ]
ein Wahrscheinlichkeitsraum und
A, B ∈ F
seien zwei zufällige Ereignisse mit
0.
Dann ist die bedingte Wahrscheinlichkeit des Eintretens von
12
A
unter der Bedingung
B
P (B) >
P (A|B) =
gegeben durch
P (A ∩ B)
P (B)
.
Multiplikationssatz:
Für zwei Ereignisse
A, B
gilt:
P (A ∩ B) = P (A|B) · P (B) = P (B|A) · P (A)
Für
n
Ereignisse
A1 , ..., An
.
gilt:
P (A1 ∩ ... ∩ An ) = P (A1 ) · P (A2 |A1 ) · P (A3 |A1 ∩ A2 ) · ... · P (An |A1 ∩ ...An−1 )
.
Unabhängigkeit von zufälligen Ereignissen:
Zwei Ereignisse
A, B
heiÿen stochastisch unabhängig, wenn gilt
P (A ∩ B) = P (A) · P (B)
.
A1 , ..., An heiÿen vollständig unabhängig,
Ai1 , ...Aik , 2 ≤ k ≤ n, i1 , ..., ik ∈ {1, ..., n} gilt
Die Ereignisse
Ereignissen
P (Ai1 ∩ ... ∩ Aik ) = P (Ai1 ) · ... · P (Aik )
wenn für jede Teilmenge bestehend aus
.
Formel der totalen Wahrscheinlichkeit:
A1 , ..., An ein vollständiges
A1 ∪ ... ∪ An = Ω,
Es sei
Ai ∩ Aj = ∅
P (Ai ) > 0
für alle
für alle
System zufälliger Ereignisse, d.h.
i, j ∈ {1, ..., n}
mit
i 6= j
und
i = 1, ..., n.
Dann gilt für das Ereignis
B∈F
P (B) = P (B|A1 ) · P (A1 ) + ... + P (B|An ) · P (An )
.
Formel von Bayes:
Unter obigen Voraussetzungen gilt für
P (Ai |B) =
B∈F
mit
P (B) > 0
und für
P (B|Ai ) · P (Ai )
P (B|Ai ) · P (Ai )
= Pn
P (B)
k=1 P (B|Ak ) · P (Ak )
i = 1, ..., n
.
2.2 Zufallsgröÿen und ihre Verteilungen
X : Ω −→ R ist eine Funktion, die jedem
ω ∈ Ω eine reelle Zahl X(ω) zuordnet.
−1 ((−∞, t]) ∈ F .)
für alle t ∈ R gelten X
Zufallsgröÿe: Eine Zufallsgröÿe
Versuchsausgang
(Auÿerdem muÿ
Verteilungsfunktion: Für eine Zufallsgröÿe
FX (x) = P (X ≤ x)
X
heiÿt die Funktion
FX : R −→ [0, 1]
Verteilungsfunktion der Zufallsgröÿe
13
mit
X.
k
Die Verteilungsfunktion
•
FX
lim FX (x) = 0 ,
lim FX (x) = 1 .
x→∞
x→−∞
• FX
• FX
hat folgende Eigenschaften:
ist monoton wachsend.
ist rechtsseitig stetig.
Umgekehrt ist jede Funktion mit diesen Eigenschaften Verteilungsfunktion einer Zufallsgröÿe.
2.2.1 Diskrete Zufallsgröÿen
X
Eine Zufallsgröÿe
heiÿt
diskret,
endlich viele Realisierungen
wenn
x1 , x2 , ...
X
endlich viele Realisierungen
x1 , ..., xn
oder abzählbar un-
hat.
Verteilung von X :
P (X = x1 ) = p1 , ... , P (X = xn ) = pn mit p1 + ... + pn = 1 bzw.
P (X = x1 ) = p1 , P (X = x2 ) = p2 , .... mit p1 + p2 + ... = 1
Verteilungsfunktion von X :
FX (x) = P (X ≤ x) =
X
pk
k:xk ≤x
Die Verteilungsfunktion einer diskreten Zufallsgröÿe ist eine Treppenfunktion mit Sprungstellen
und Sprunghöhe
pk
an Sprungstelle
Erwartungswert EX
EX =
n
X
von
xk
für
k = 1, ..., n
bzw.
k = 1, 2, ...
X:
xk · P (X = xk ) =
k=1
n
X
xk · pk
EX =
bzw.
k=1
(EX existiert, wenn
∞
X
|xk | · pk < ∞.)
∞
X
xk · P (X = xk ) =
k=1
∞
X
xk · p k
k=1
Varianz (Streuung) Var(X ) von X :
k=1
Var(X) = E(X − EX)2 =
n
n
X
X
(xk − EX)2 · P (X = xk ) =
(xk − EX)2 · pk
k=1
Andere Berechnungsvorschrift:
Var(X) =
k=1
n
X
x2k · pk − (EX)2 .
k=1
Analoge Formeln, wenn
Standardabweichung:
X
abzählbar unendlich viele Werte annehmen kann.
p
Var(X)
2.2.2 Stetige Zufallsgröÿen
Eine Zufallsgröÿe
X
heiÿt
stetig, falls sich die Verteilungsfunktion FX
Zx
FX (x) =
fX (t)dt
−∞
wobei
fX
eine reellwertige nichtnegative Funktion ist.
Man nennt dann
fX
Dichte der Zufallsgröÿe X .
14
,
schreiben läÿt als:
x1 , x2 , ...
Die Dichte
fX
hat folgende Eigenschaften:
Z∞
•
fX (t)dt = 1
−∞
• FX0 (x) = fX (x) für
• Für x1 < x2 gilt:
x
alle Stetigkeitsstellen
von
FX .
Zx2
P (x1 < X ≤ x2 ) = P (X ≤ x2 ) − P (X ≤ x1 ) = FX (x2 ) − FX (x1 ) =
Erwartungswert EX
x1
Z∞
von
x · fX (x)dx
EX =
X:
fX (t)dt
−∞
Z∞
Varianz Var(X ) von X:
Var(X) =
(x − EX)2 · fX (x)dx
−∞
Z∞
|x| · fX (x)dx < ∞.)
(Erwartungswert und Varianz existieren, falls
−∞
Standardabweichung:
Quantile xq
von
p
Var(X)
X:
Für eine stetige Zufallsgröÿe
heiÿt die reelle Zahl
xq
X
mit Verteilungsfunktion
FX
und Dichte
Quantil der Ordnung q (q-Quantil), wenn gilt:
fX
und für
q
Zxq
FX (xq ) = P (X ≤ xq ) =
fX (t)dt = q
.
−∞
Für
q = 0.5
heiÿt das 0.5-Quantil
x0.5
Median von X .
Eigenschaften von Erwartungswert und Varianz diskreter und stetiger Zufallsgröÿen:
Für zwei Zufallsgröÿen
X, Y
E(aX + b) = aEX + b
Var(aX + b) =
und reelle Zahlen
a, b ∈ R
gilt:
,
a2 Var(X)
,
E(X + Y ) = EX + EY .
Für zwei unabhängige Zufallsgröÿen
X, Y
gilt auÿerdem:
E(X · Y ) = EX · EY ,
Var(X + Y ) = Var(X) + Var(Y ) .
2.2.3 Spezielle diskrete Zufallsgröÿen
1.
Diskrete Gleichverteilung auf x1 , ..., xn
P (X = x1 ) = ... = P (X = xn ) =
Erwartungswert:
Varianz:
1
n
EX = n1 (x1 + ... + xn )
Var(X) = n1 (x21 + ... + x2n ) −
15
1
(x1
n2
+ ... + xn )2
mit
0<q<1
2.
Hypergeometrische Verteilung
Parameter
M, N, n ∈ N
M ≤ N und n ≤ N
M
N −M
·
k
n−k
P (X = k) =
N
n
mit
EX = n ·
Varianz:
Var(X) = n · M
N · (1 −
X ∼ H(N ; M ; n)
Modell: Aus einer Urne mit
nach dem Laplace-Prinzip
mit
k = 0, 1, ..., n
k ≤ M und k ≥ n + M − N
M
N
Erwartungswert:
Schreibweise:
für
N
M
N)
· (1 −
Kugeln, von denen
n−1
N −1 )
M
weiÿ und
N −M
schwarz sind, werden
n Kugeln entnommen (ohne Zurücklegen). Die Zufallsgröÿe X , die die
Anzahl entnommener weiÿer Kugeln zählt, ist hypergeometrisch verteilt.
3.
Binomialverteilung
Parameter
n∈N
und
p ∈ [0, 1]
P (X = k) =
Erwartungswert:
n
k
pk (1 − p)n−k
für
k = 0, 1, ..., n
EX = n · p
Varianz:
Var(X) = n · p · (1 − p)
Schreibweise:
X ∼ B(n; p)
Modell: Ein zufälliges Ereignis
A
tritt mit Wahrscheinlichkeit
experiments ein. Dieses Experiment wird
gungen durchgeführt. Die Zufallsgröÿe
X,
n
p
bei Durchführung eines Zufalls-
mal unabhängig voneinander unter gleichen Bedin-
die zählt, wie oft das Ereignis
A
eintritt, ist binomial-
verteilt.
Dieses Modell entspricht dem Urnenmodell und Ziehen von Kugeln
mit Zurücklegen.
Zusammenhang Binomialverteilung - hypergeometrische Verteilung:
Für
n≤
M
10 und
n≤
N −M
kann man die Binomialverteilung mit
10
p=
M
N als Näherung für die
hypergeometrische Verteilung verwenden.
4.
Poisson-Verteilung
Parameter
λ>0
P (X = k) =
Erwartungswert:
λk −λ
·e
k!
für
k = 0, 1, ...
EX = λ
Varianz:
Var(X) = λ
Schreibweise:
X ∼ Π(λ)
Anwendung: Man betrachtet Ereignisse, die unabhängig voneinander eintreten, z.B Telefonanrufe
in einer Zentrale, zerfallende Atomkerne einer radioaktiven Substanz, Verkehrsunfälle an einer
X,
die
n und kleines p (Faustregel: n ≥ 100, n · p ≤ 9) kann man die Poisson-Verteilung
λ = n · p als Näherung für die Binomialverteilung verwenden.
mit
Kreuzung. Im Mittel treten
λ
solcher Ereignisse in einem Zeitraum ein. Die Zufallsgröÿe
die Anzahl eintretender Ereignisse zählt, ist poisson-verteilt.
Zusammenhang Binomialverteilung - Poissonverteilung:
Für groÿes
Parameter
16
5.
Geometrische Verteilung
Parameter
p ∈ (0, 1)
P (X = k) = (1 − p)k−1 · p
EX =
Erwartungswert:
k = 1, 2, ...
1
p
Var(X) =
Varianz:
für
Modell: Ein zufälliges Ereignis
1−p
p2
A
tritt mit Wahrscheinlichkeit
experiments ein. Die Zufallsgröÿe
X,
p
bei Durchführung eines Zufalls-
die die Versuche bis zum ersten Eintreten von
A
zählt, ist
geometrisch verteilt.
2.2.4 Spezielle stetige Zufallsgröÿen
1.
Stetige Gleichverteilung im Intervall [a, b]
Dichte
fX (x):
fX (x) =
EX =
2.
a≤x<b




0
x−a
FX (x) =


 b−a
1
x<a
a≤x<b
b≤x
a+b
2
Var(X) =
Varianz:
x < a oder b ≤ x
0
1

b−a
FX (x):
Verteilungsfunktion
Erwartungswert:


(b−a)2
12
Normalverteilung
Parameter
Dichte
µ∈R
fX (x):
Erwartungswert:
und
σ>0
(x−µ)2
1
fX (x) = √ · e− 2σ2
σ 2π
EX = µ
Var(X) = σ 2
Varianz:
X ∼ N (µ, σ)
Schreibweise:
Standardabweichung:
oder
Die zugehörige Verteilungsfunktion
Wichtiger Spezialfall:
N (0, 1)
heiÿt
µ=0
und
X∼
σ
N (µ, σ 2 )
FX (x) = Φµ,σ2 (x)
kann nicht explizit angegeben werden.
σ 2 = 1.
Standardnormalverteilung.
Die Verteilungsfunktion
Φ0,1
der Standardnormalverteilung ist in tabellarischer Form gegeben
(siehe Kapitel 4).
Es gilt folgender Zusammenhang:
Φµ,σ2 (x) = Φ0,1
Für die Standardnormalverteilung gilt:
x−µ
σ
.
Φ0,1 (−x) = 1 − Φ0,1 (x)
17
für alle
x∈R
.
Berechnung von Wahrscheinlichkeiten für
X ∼ N (µ, σ 2 ):
• P (X ≤ x) = Φµ,σ2 (x) = Φ0,1 ( x−µ
σ )
µ−x
• P (X ≥ x) = 1 − P (X ≤ x) = 1 − Φµ,σ2 (x) = 1 − Φ0,1 ( x−µ
σ ) = Φ0,1 ( σ )
• P (a ≤ X ≤ b) = P (X ≤ b) − P (X ≤ a) =
a−µ
= Φµ,σ2 (b) − Φµ,σ2 (a) = Φ0,1 ( b−µ
σ ) − Φ0,1 ( σ )
Anwendung: Eine Zufallsgröÿe
X,
die z.B. zufällige Meÿ- und Beobachtungsfehler oder zufällige
Gröÿen-, Längen-, Gewichtsangaben oder zufällige Abweichungen von einem Sollwert beschreibt,
ist normalverteilt.
3.
Exponentialverteilung
Parameter
a>0
Dichte
fX (x):
fX (x) =
0
ae−ax
x≤0
x>0
Verteilungsfunktion
Erwartungswert:
FX (x):
EX =
FX (x) =
0
1 − e−ax
x≤0
x>0
1
a
1
a2
Varianz:
Var(X) =
Schreibweise:
X ∼ exp(a)
Anwendung: Eine Zufallsgröÿe
X , die z.B. die Lebensdauer von Bauelementen oder die Bedienzeit
von Kunden oder Reparaturzeiten oder Zerfallszeiten radioaktiver Substanzen beschreibt, ist
exponentialverteilt.
18
3
Induktive Statistik
3.1 Parameterschätzungen
Mathematische Stichprobe:
(X1 , ...Xn )
unabhängig identisch verteilte Zufallsgröÿen
Konkrete Stichprobe:
(x1 , ..., xn ) ∈ Rn
Realisierungen der Zufallsgröÿen
Schätzfunktion:
T (X1 , ..., Xn )
(T (X1 , ..., Xn ) ist eine neue Zufallsgröÿe mit Wert
T (x1 , ..., xn ) bei konkreter Stichprobe (x1 , ..., xn ).)
(oder Stichprobenfunktion)
3.1.1 Punktschätzungen
Ziel: Schätzung eines unbekannten Parameters ϑ der Verteilung von X1 , ..., Xn
Stichprobenfunktion
T (X1 , ..., Xn ),
durch eine geeignete
die gewissen Gütekriterien (siehe Vorlesung, Literatur) genügt.
Spezielle Punktschätzer:
• Schätzung für den Erwartungswert der X1 , ..., Xn :
n
1X
X=
Xi
n
i=1
•
Schätzung für die
n
1 X
S =
(Xi − X)2
n−1
Varianz der X1 , ..., Xn :
2
i=1
•
Für
Xi 0-1-verteilt,
Schätzung für die
d.h.
P (Xi = 1) = p
Wahrscheinlichkeit
P (Xi = 0) = 1 − p für i = 1, ..., n
n
1X
P̂ =
p von Xi :
Xi
n
und
i=1
x, s2 , p̂ durch
2
Schätzfunktion X , S , P̂ .
Berechnung des konkreten Schätzwertes
Stichprobe in die jeweilige
Einsetzen der Werte
x1 , ..., xn
der konkreten
3.1.2 Intervallschätzungen
Ziel:
Bestimmen von Zufallsgröÿen
Parameter
ϑ
Gu (X1 , ..., Xn )
und
Go (X1 , ..., Xn ),
so daÿ für den unbekannten
gilt:
P (Gu (X1 , ..., Xn ) ≤ ϑ ≤ Go (X1 , ..., Xn )) = 1 − α , 0 < α < 1 .
Dann heiÿt:
[Gu ; Go ]
zweiseitiges Kondenzintervall
1−α
Kondenzniveau
α
Irrtumswahrscheinlichkeit
Mit einer Wahrscheinlichkeit von
Parameter
1−α
überdeckt das Kondenzintervall
[Gu ; Go ]
den unbekannten
ϑ.
Einseitige Kondenzintervalle:
(−∞ ; Go )
(Gu ; ∞)
mit
mit
P (ϑ ≤ Go (X1 , ..., Xn )) = 1 − α
P (ϑ ≥ Gu (X1 , ..., Xn )) = 1 − α
19
bzw.
Spezielle zweiseitige Kondenzintervalle:
für Stichprobenumfang
•
n
und Kondenzniveau
Kondenzintervall für den
σ2:
Erwartungswert µ einer Normalverteilung bei bekannter Varianz
X −z
Dabei ist
1
n
•
n
P
z1− α2
das
1−α
(1 − α2 )-Quantil
1− α
2
σ
σ
· √ ; X + z1− α2 · √
n
n
der Standardnormalverteilung (siehe Kapitel 4) und
Xi .
Kondenzintervall für den
σ2:
Erwartungswert µ einer Normalverteilung bei unbekannter Vari-
X − tn−1,1− α2
S
S
· √ ; X + tn−1,1− α2 · √
n
n
tn−1,1− α2 das (1 − α2 )-Quantil der t-Verteilung
n
n
P
1 P
X = n1
Xi und S 2 = n−1
(Xi − X)2 .
Dabei ist
4) und
i=1
mit
n−1
Freiheitsgraden (siehe Kapitel
p
einer
0-1-Verteilung
P (X = 1) = p, P (X = 0) = 1 − p):
s

 P̂ − z1− α ·
2
Voraussetzung:
Dabei ist
n
P
i=1
Asymptotisches Kondenzintervall für die Wahrscheinlichkeit
(d.h.
1
n
X =
i=1
anz
•
z1− α2
np̂(1 − p̂) > 9
α
das (1 −
2 )-Quantil
P̂ (1 − P̂ )
; P̂ + z1− α2 ·
n
s

P̂ (1 − P̂ ) 
n
der Standardnormalverteilung (siehe Kapitel 4) und
P̂ =
Xi .
i=1
3.2 Parametertests
3.2.1 Schritte zur Durchführung eines Parametertests für einen unbekannten Parameter
ϑ
1. Aufstellen der
Nullhypothese H0 mit ϑ0 ∈ R
Zweiseitiger Test:
H0
ϑ = ϑ0
:
Alternativhypothese
Einseitiger Test:
H0
:
ϑ ≤ ϑ0
bzw.
Alternativhypothese
2. Wählen des
:
ϑ 6= ϑ0
H0
:
ϑ ≥ ϑ0
H1
:
ϑ > ϑ0
bzw.
ϑ < ϑ0
Signikanzniveaus 1 − α (α ∈ (0, 1) Irrtumswahrscheinlichkeit, Wahrscheinlich-
keit für das Ablehnen der Nullhypothese
3. Auswahl einer geeigneten
Parameter
H1
ϑ,
H0 ,
obwohl
H0
wahr ist)
Testgröÿe T (X1 , ..., Xn ) (Stichprobenfunktion) für den unbekannten
deren Verteilung unter
H0
bekannt ist.
20
4. Bestimmen von
cu , co
(in Abhängigkeit von
α)
mit
P (cu ≤ T ≤ co )H0 = 1 − α (zweiseitiger Test)
und damit Festlegung vom
Einseitiger Test:
c
mit
und kritischer Bereich
kritischen Bereich
P (T ≤ c)H0 = 1 − α
K = (c, ∞)
bzw.
5. Berechnung des Wertes der Testgröÿe
Testentscheidung:
t̂ ∈ K =⇒
H0
t̂ 6∈ K =⇒
gegen
K = (−∞, cu ) ∪ (co , ∞)
bzw.
P (T ≥ c)H0 = 1 − α
K = (−∞, c)
T (x1 , ..., xn ) = t̂ ∈ R
aus der konkreten Stichprobe.
wird abgelehnt.
H0
ist auf Grund dieser Stichprobe nichts einzuwenden.
Fehlerquellen:
Fehler 1. Art - Nullhypothese H0 wird abgelehnt, obwohl sie wahr ist.
Fehler 2. Art - Nullhypothese H0 wird nicht abgelehnt, obwohl sie falsch ist.
3.2.2 Spezielle Parametertests:
•
Erwartungswert µ einer normalverteilten Zufallsgröÿe bei bekannter Varianz σ2 (Gauÿ-Test)
Test für den unbekannten
Nullhypothese
Alternativ-
Testgröÿe
Kritischer Bereich
hypothese
H0 : µ = µ0
H1 : µ 6= µ0
T =
H0 : µ ≥ µ0
H1 : µ < µ0
T =
H0 : µ ≤ µ0
H1 : µ > µ0
T =
√
√
√
n·
X−µ0
σ
K = (−∞; −z1− α2 ) ∪ (z1− α2 ; ∞)
n·
X−µ0
σ
K = (−∞; −z1−α )
n·
X−µ0
σ
K = (z1−α ; ∞)
21
•
Erwartungswert
kannter Varianz σ2 (einfacher t-Test)
µ
Test für den unbekannten
Nullhypothese
Alternativ-
Testgröÿe
einer normalverteilten Zufallsgröÿe bei
Kritischer Bereich
hypothese
H0 : µ = µ0
H1 : µ 6= µ0
T =
H0 : µ ≥ µ0
H1 : µ < µ0
T =
H0 : µ ≤ µ0
H1 : µ > µ0
T =
•
√
√
√
n·
X−µ0
s
K = (−∞; −tn−1,1− α2 ) ∪ (tn−1,1− α2 ; ∞)
n·
X−µ0
s
K = (−∞; −tn−1,1−α )
n·
X−µ0
s
K = (tn−1,1−α ; ∞)
Test für die unbekannte Wahrscheinlichkeit
(Voraussetzung :
Nullhypothese
p
einer
0-1-Verteilung
np0 (1 − p0 ) > 9)
Alternativ-
Testgröÿe
Kritischer Bereich
hypothese
H0 : p = p0
H1 : p 6= p0
T =
q
n
p0 (1−p0 )
· (P̂ − p0 )
K = (−∞; −z1− α2 ) ∪ (z1− α2 ; ∞)
H0 : p ≥ p0
H1 : p < p0
T =
q
n
p0 (1−p0 )
· (P̂ − p0 )
K = (−∞; −z1−α )
H0 : p ≤ p0
H1 : p > p0
T =
q
n
p0 (1−p0 )
· (P̂ − p0 )
K = (z1−α ; ∞)
22
unbe-
4
Tabellen
4.1 Verteilungsfunktion der Standardnormalverteilung
1
Φ0,1 (x) = P (X ≤ x) = √
2π
Hinweise: Für
Für
x<0
ist
x > 3, 9
Zx
t2
e− 2 dt
−∞
Φ0,1 (x) = 1 − Φ0,1 (−x)
ist
Φ0,1 (x) = 1
zu verwenden.
zu setzen.
x
0,00
0,01
0,02
0,03
0,04
0,05
0,06
0,07
0,08
0,09
0,0
0,50000
0,50399
0,50798
0,51197
0,51595
0,51994
0,52392
0,52790
0,53188
0,53586
0,1
0,53983
0,54380
0,54776
0,55172
0,55567
0,55962
0,56356
0,56749
0,57142
0,57535
0,2
0,57926
0,58317
0,58706
0,59095
0,59483
0,59871
0,60257
0,60642
0,61026
0,61409
0,3
0,61791
0,62172
0,62552
0,62930
0,63307
0,63683
0,64058
0,64431
0,64803
0,65173
0,4
0,65542
0,65910
0,66276
0,66640
0,67003
0,67364
0,67724
0,68082
0,68439
0,68793
0,5
0,69146
0,69497
0,69847
0,70194
0,70540
0,70884
0,71226
0,71566
0,71904
0,72240
0,6
0,72575
0,72907
0,73237
0,73565
0,73891
0,74215
0,74537
0,74857
0,75175
0,75490
0,7
0,75804
0,76115
0,76424
0,76730
0,77035
0,77337
0,77637
0,77935
0,78230
0,78524
0,8
0,78814
0,79103
0,79389
0,79673
0,79955
0,80234
0,80511
0,80785
0,81057
0,81327
0,9
0,81594
0,81859
0,82121
0,82381
0,82639
0,82894
0,83147
0,83398
0,83646
0,83891
1,0
0,84134
0,84375
0,84614
0,84849
0,85083
0,85314
0,85543
0,85769
0,85993
0,86214
1,1
0,86433
0,86650
0,86864
0,87076
0,87286
0,87493
0,87698
0,87900
0,88100
0,88298
1,2
0,88493
0,88686
0,88877
0,89065
0,89251
0,89435
0,89617
0,89796
0,89973
0,90147
1,3
0,90320
0,90490
0,90658
0,90824
0,90988
0,91149
0,91308
0,91466
0,91621
0,91774
1,4
0,91924
0,92073
0,92220
0,92364
0,92507
0,92647
0,92785
0,92922
0,93056
0,93189
1,5
0,93319
0,93448
0,93574
0,93699
0,93822
0,93943
0,94062
0,94179
0,94295
0,94408
1,6
0,94520
0,94630
0,94738
0,94845
0,94950
0,95053
0,95154
0,95254
0,95352
0,95449
1,7
0,95543
0,95637
0,95728
0,95818
0,95907
0,95994
0,96080
0,96164
0,96246
0,96327
1,8
0,96407
0,96485
0,96562
0,96638
0,96712
0,96784
0,96856
0,96926
0,96995
0,97062
1,9
0,97128
0,97193
0,97257
0,97320
0,97381
0,97441
0,97500
0,97558
0,97615
0,97670
2,0
0,97725
0,97778
0,97831
0,97882
0,97932
0,97982
0,98030
0,98077
0,98124
0,98169
2,1
0,98214
0,98257
0,98300
0,98341
0,98382
0,98422
0,98461
0,98500
0,98537
0,98574
2,2
0,98610
0,98645
0,98679
0,98713
0,98745
0,98778
0,98809
0,98840
0,98870
0,98899
2,3
0,98928
0,98956
0,98983
0,99010
0,99036
0,99061
0,99086
0,99111
0,99134
0,99158
2,4
0,99180
0,99202
0,99224
0,99245
0,99266
0,99286
0,99305
0,99324
0,99343
0,99361
2,5
0,99379
0,99396
0,99413
0,99430
0,99446
0,99461
0,99477
0,99492
0,99506
0,99520
2,6
0,99534
0,99547
0,99560
0,99573
0,99585
0,99598
0,99609
0,99621
0,99632
0,99643
2,7
0,99653
0,99664
0,99674
0,99683
0,99693
0,99702
0,99711
0,99720
0,99728
0,99736
2,8
0,99744
0,99752
0,99760
0,99767
0,99774
0,99781
0,99788
0,99795
0,99801
0,99807
2,9
0,99813
0,99819
0,99825
0,99831
0,99836
0,99841
0,99846
0,99851
0,99856
0,99861
3,0
3,1
3,2
3,3
3,4
3,5
3,6
3,7
3,8
3,9
0,99865
0,99903
0,99931
0,99952
0,99966
0,99977
0,99984
0,99989
0,99993
0,99995
23
4.2 Quantile zq der Standardnormalverteilung
Hinweis: Für
q < 0, 5
ist
zq = −z1−q
zu verwenden.
q
zq
q
zq
q
zq
1,959964
0,5
0
0,91
1,340755
0,975
0,55
0,125661
0,92
1,405072
0,98
2,053749
0,6
0,253347
0,93
1,475791
0,985
2,170090
0,65
0,385320
0,94
1,554774
0,99
2,326348
0,7
0,524401
0,95
1,644854
0,995
2,575829
0,75
0,674490
0,955
1,695398
0,999
3,090232
0,8
0,841621
0,96
1,750686
0,9995
3,290527
0,85
1,036433
0,965
1,811911
0,9999
3,719016
0,9
1,281552
0,97
1,880794
4.3 Quantile tn,q der t-Verteilung (n - Zahl der Freiheitsgrade)
n
q = 0, 9
q = 0, 95
q = 0, 975
q = 0, 99
q = 0, 995
q = 0, 999
q = 0, 9995
1
3,08
6,31
12,71
31,82
63,66
318,31
636,62
2
1,89
2,92
4,30
6,96
9,92
22,33
31,60
3
1,64
2,35
3,18
4,54
5,84
10,21
12,92
4
1,53
2,13
2,78
3,75
4,60
7,17
8,61
5
1,48
2,02
2,57
3,36
4,03
5,89
6,87
6
1,44
1,94
2,45
3,14
3,71
5,21
5,96
7
1,41
1,89
2,36
3,00
3,50
4,79
5,41
8
1,40
1,86
2,31
2,90
3,36
4,50
5,04
9
1,38
1,83
2,26
2,82
3,25
4,30
4,78
10
1,37
1,81
2,23
2,76
3,17
4,14
4,59
11
1,36
1,80
2,20
2,72
3,11
4,02
4,44
12
1,36
1,78
2,18
2,68
3,05
3,93
4,32
13
1,35
1,77
2,16
2,65
3,01
3,85
4,22
14
1,35
1,76
2,14
2,62
2,98
3,79
4,14
15
1,34
1,75
2,13
2,60
2,95
3,73
4,07
16
1,34
1,75
2,12
2,58
2,92
3,69
4,01
17
1,33
1,74
2,11
2,57
2,90
3,65
3,97
18
1,33
1,73
2,10
2,55
2,88
3,61
3,92
19
1,33
1,73
2,09
2,54
2,86
3,58
3,88
20
1,33
1,72
2,09
2,53
2,85
3,55
3,85
21
1,32
1,72
2,08
2,52
2,83
3,53
3,82
22
1,32
1,72
2,07
2,51
2,82
3,50
3,79
23
1,32
1,71
2,07
2,50
2,81
3,48
3,77
24
1,32
1,71
2,06
2,49
2,80
3,47
3,75
25
1,32
1,71
2,06
2,49
2,79
3,45
3,73
26
1,31
1,71
2,06
2,48
2,78
3,43
3,71
27
1,31
1,70
2,05
2,47
2,77
3,42
3,69
28
1,31
1,70
2,05
2,47
2,76
3,41
3,67
29
1,31
1,70
2,05
2,46
2,76
3,40
3,66
30
1,31
1,70
2,04
2,46
2,75
3,39
3,65
40
1,30
1,68
2,02
2,42
2,70
3,31
3,55
50
1,30
1,68
2,01
2,40
2,68
3,26
3,50
100
1,29
1,66
1,98
2,36
2,63
3,17
3,39
500
1,28
1,65
1,96
2,33
2,59
3,11
3,31
1000
1,28
1,65
1,96
2,33
2,58
3,10
3,30
10000
1,28
1,65
1,96
2,33
2,58
3,09
3,29
24
Herunterladen