Statistische Formeln und Tabellen

Werbung
Statistische Formeln
und Tabellen
für Studierende der Wirtschaftswissenschaften
von
Dr. rer. nat. Jürgen Vogel
Ilmenau, April 2014
Technische Universität Ilmenau
Fakultät für Wirtschaftswissenschaften und Medien
Fachgebiet Quantitative Methoden der Wirtschaftswissenschaften
Inhaltsverzeichnis
I.
Wahrscheinlichkeitsrechnung................................................................................. 1
1.
Wahrscheinlichkeiten ......................................................................................... 1
1.1.
Zufällige Ereignisse.................................................................................... 1
1.2.
KOLMOGOROWsche Axiome ....................................................................... 1
1.3.
Rechnen mit Wahrscheinlichkeiten............................................................ 2
1.4.
LAPLACEsche Formel.................................................................................. 2
1.5.
Geometrische Wahrscheinlichkeiten .......................................................... 2
1.6.
Formeln der Kombinatorik ......................................................................... 2
1.7.
Unabhängige Ereignisse und bedingte Wahrscheinlichkeiten ................... 3
2.
Eindimensionale Verteilungen ........................................................................... 3
2.1.
Diskrete Verteilungen................................................................................. 3
2.2.
Stetige Verteilungen ................................................................................... 4
2.3.
Momente..................................................................................................... 4
2.4.
Spezielle Momente (Varianz, Schiefe, Exzess).......................................... 4
2.5.
Weitere Kennwerte von Verteilungen ........................................................ 5
2.6.
Spezielle diskrete Verteilungen.................................................................. 6
2.7.
Spezielle stetige Verteilungen .................................................................... 7
2.8.
Prüfverteilungen ......................................................................................... 8
2.9.
BERNOULLI-Schema.................................................................................... 9
2.10.
Normalverteilung.................................................................................... 9
2.11.
Quantile von Prüfverteilungen ............................................................... 9
3.
Zweidimensionale Verteilungen....................................................................... 10
3.1.
Diskrete Verteilungen............................................................................... 10
3.2.
Stetige Verteilungen ................................................................................. 11
3.3.
Funktionen zweier Zufallsvariablen ......................................................... 11
3.4.
Unabhängigkeit zweier Zufallsvariablen.................................................. 12
3.5.
Kovarianz und Korrelationskoeffizient .................................................... 12
3.6.
Zweidimensionale Normalverteilung ....................................................... 12
3.7.
Faltung zweier Verteilungen .................................................................... 13
4.
Grenzwertsätze ................................................................................................. 14
4.1.
Approximation von Verteilungen............................................................. 14
4.2.
Gesetz der großen Zahlen......................................................................... 14
4.3.
Zentraler Grenzwertsatz ........................................................................... 14
II.
Beschreibende Statistik ........................................................................................ 15
1.
Häufigkeiten und Kennwerte für ein Merkmal ................................................ 15
1.1.
Primäre Häufigkeitstabelle ....................................................................... 15
1.2.
Sekundäre Häufigkeitstabelle................................................................... 15
1.3.
LORENZkurve und LORENZ’sches Konzentrationsmaß............................. 16
1.4.
Empirische Kennwerte für ein metrisch skaliertes Merkmal ................... 17
1.5.
Empirische Kennwerte für ein ordinal skaliertes Merkmal...................... 17
1.6.
Empirischer Kennwert für ein nominal skaliertes Merkmal .................... 18
1.7.
Spezielle Mittelwerte................................................................................ 18
2.
Häufigkeitstabellen und Kennwerte für zwei Merkmale.................................. 19
2.1.
Korrelationskoeffizienten ......................................................................... 19
2.2.
Kontingenztafeln ...................................................................................... 19
3.
Trendbestimmung bei Zeitreihen ..................................................................... 21
3.1.
Linearer Trend .......................................................................................... 21
3.2.
Polynomialer Trend .................................................................................. 21
3.3.
Symmetrisches gleitendes Mittel.............................................................. 21
3.4.
Exponentielles Glätten.............................................................................. 21
4.
Indizes............................................................................................................... 22
4.1.
Indexformeln ............................................................................................ 22
4.2.
Zerlegung von Indizes .............................................................................. 22
4.3.
Bilateraler Preisvergleich USA - Deutschland ......................................... 23
5.
Statistische Qualitätskontrolle .......................................................................... 24
5.1.
Kontrollkarten........................................................................................... 24
5.2.
Einfacher Stichprobenplan ....................................................................... 26
III. Schließende Statistik ............................................................................................ 27
1.
Punktschätzungen ............................................................................................. 27
1.1.
Wünschenswerte Eigenschaften von Punktschätzungen .......................... 27
1.2.
Maximum-Likelihood-Methode ............................................................... 28
2.
Bereichsschätzungen ........................................................................................ 28
2.1.
Konfidenzintervalle für µ und σ 2 eines normalverteilten Merkmals....... 28
2.2.
Konfidenzintervall für eine Wahrscheinlichkeit p ................................... 28
3.
Signifikanztests................................................................................................. 29
3.1.
Parametertests für ein normalverteiltes Merkmal..................................... 29
3.2.
Test auf Wahrscheinlichkeit (Anteilswert)............................................... 30
3.3.
Anpassungstests........................................................................................ 30
3.4. Tests auf Unabhängigkeit ......................................................................... 31
3.5.
Zwei-Stichproben-Vergleiche für verbundene Merkmale........................ 31
3.6.
Zwei-Stichprobenvergleiche für unabhängige Merkmale ........................ 32
4.
Einfache lineare Regression ............................................................................. 34
4.1.
Schätzungen nach der Methode der kleinsten Quadrate........................... 35
4.2.
Konfidenzband für die Regressionsgerade............................................... 35
4.3.
Konfidenzintervall für einen Zwischenwert............................................. 35
4.4.
Prüfung des Regressionskoeffizienten ..................................................... 36
4.5.
Prüfung der Regressionskonstante ........................................................... 36
5.
Multivariate lineare Regression........................................................................ 36
5.1.
Schätzung der Regressionskoeffizienten.................................................. 37
5.2.
Test auf linearen Zusammenhang............................................................. 38
5.3.
Multiple Korrelation................................................................................. 38
6.
Nichtlineare Regression.................................................................................... 38
6.1.
Polynomiale Regression ........................................................................... 38
6.2.
Curvilineare Regression ........................................................................... 39
7.
Varianzanalyse (Modell I, einfache Klassifikation)......................................... 40
IV. Tafeln.................................................................................................................... 41
1.
Griechisches Alphabet...................................................................................... 41
2.
Lineare Interpolation ........................................................................................ 41
3.
Quantile der standardisierten Normalverteilung .............................................. 41
4.
Zufallszahlen .................................................................................................... 42
5.
Verteilungsfunktion der Standardnormalverteilung ......................................... 43
6.
Quantile der t-Verteilung mit f Freiheitsgraden ............................................. 44
7.
Quantile der χ²–Verteilung mit f Freiheitsgraden .......................................... 45
8.
Quantile der F-Verteilung für α = 0,95 ........................................................... 47
9.
Quantile der F-Verteilung für α = 0,99 ........................................................... 47
10. Kritische Werte bn;α für den Vorzeichentest .................................................... 48
11. Kritische Werte für den Korrelationskoeffizienten .......................................... 48
12. Kritische Werte für Schiefe und Exzess........................................................... 49
V.
Literatur ................................................................................................................ 50
1.
Lehrbücher und Aufgabensammlungen ........................................................... 50
2.
Nachschlagewerke und Tabellen...................................................................... 50
3.
Quellennachweis............................................................................................... 50
I. Wahrscheinlichkeitsrechnung
I.
Wahrscheinlichkeitsrechnung
1.
Wahrscheinlichkeiten
1.1. Zufällige Ereignisse
Ω
∅
ω
{ω }
Ergebnismenge = sicheres Ereignis
unmögliches Ereignis
Ergebnis eines zufälligen Versuchs ( ω ∈ Ω )
Elementarereignis
A, B, Ai ⊂ Ω
A∪ B
∪ Ai
Ereignisse
A oder B tritt ein
mindestens eines der Ai tritt ein
i
A∩ B
∩ Ai
A und B treten ein
alle Ai treten ein
i
A
A∩ B = ∅
A⊂ B
A tritt nicht ein
A und B sind miteinander unvereinbar
A zieht B nach sich
Es gilt:
A∪ B = A∩ B
DE MORGANsche Formeln
A∩ B = A∪ B
1.2. KOLMOGOROWsche Axiome
Ereignisfeld (σ-Algebra von Teilmengen von Ω)
B
Eine reellwertige Funktion P auf B heißt Wahrscheinlichkeitsmaß, wenn sie
folgenden Axiomen genügt:
(I)
(II)
P( A) ≥ 0 für alle A ∈ B,
P (Ω) = 1 ,
∞
∞
i =1
i =1
(III) P(∪ Ai ) = ∑ P( Ai ) , wenn Ai ∩ Aj = ∅ für i ≠ j .
[Ω, B, P] Wahrscheinlichkeitsraum
P(A)
Wahrscheinlichkeit des Ereignisses A∈ B
1
I. Wahrscheinlichkeitsrechnung
1.3. Rechnen mit Wahrscheinlichkeiten
P (∅ ) = 0
0 ≤ P( A) ≤ 1
A ∩ B = ∅ ⇒ P ( A ∪ B ) = P( A) + P( B )
A ⊂ B ⇒ P( A) ≤ P( B )
P( A) = 1 − P ( A)
P( A ∪ B ) = P( A) + P ( B ) − P( A ∩ B )
1.4. LAPLACEsche Formel
Ω bestehe aus n Elementen und das Ereignis A aus m. Sind alle Elementarereignisse
gleich wahrscheinlich, gilt
P( A) =
m Anzahl der günstigen Fälle
=
n
Anzahl aller Fälle
1.5. Geometrische Wahrscheinlichkeiten
Es sei Ω ein ebenes Flächenstück mit endlichem Flächeninhalt. Die Funktion P mit
P( A) =
Flächeninhalt von A
Flächeninhalt von Ω
ist ein Wahrscheinlichkeitsmaß auf der σ-Algebra der BORELschen Teilmengen von Ω.
1.6. Formeln der Kombinatorik
ohne Wiederholung
Anzahl der Permutationen von n
Elementen
Anzahl der Kombinationen von k
aus n (keine Berücksichtigung der
Reihenfolge)
Anzahl der Variationen von k aus n
(Berücksichtigung der Reihenfolge)
n!
⎛n⎞
⎜k ⎟
⎝ ⎠
⎛ n + k − 1⎞
⎜ k
⎟
⎝
⎠
n ⋅ ( n − 1) ⋅ … ⋅ ( n − k + 1)
nk
Dabei sind (für n, k ∈ {0,1, 2,...} und x ∈
n ! = n ⋅ ( n − 1) ⋅ ... ⋅ 1
⎛ x ⎞ x ⋅ ( x − 1) ⋅ ... ⋅ ( x − k + 1)
⎜k ⎟ =
k ⋅ (k − 1) ⋅ ... ⋅ 1
⎝ ⎠
mit Wiederholung
n!
n1 !⋅ n2 !⋅ ... ⋅ nk !
)
„n Fakultät“ mit 0! = 1
⎛ x⎞
Binomialkoeffizient „x über k“ mit ⎜ ⎟ = 1
⎝0⎠
2
I. Wahrscheinlichkeitsrechnung
1.7. Unabhängige Ereignisse und bedingte Wahrscheinlichkeiten
P( A ∩ B ) = P ( A) ⋅ P( B )
P( A ∩ B )
P( A | B ) =
P( B)
Es gilt:
Unabhängigkeit von A und B
bedingte Wahrscheinlichkeit von A unter B ( P( B ) > 0 )
A ∩ B = ∅ ⇒ P( A | B) = 0
B ⊂ A ⇒ P( A | B) = 1
A und B unabhängig ⇒ A und B unabhängig
Es sei B1 , B2 ,..., Bn eine Zerlegung von Ω mit P( Bi ) > 0 . Dann gilt:
n
P( A) = ∑ P ( A | Bi ) ⋅ P( Bi )
Formel der totalen Wahrscheinlichkeit
i =1
P( Bi | A) =
P( A | Bi ) ⋅ P( Bi )
n
∑ P( A | B ) ⋅ P( B )
j =1
j
BAYES'sche Formel
j
(i = 1, ..., n )
2.
Eindimensionale Verteilungen
FX ( x ) = P( X ≤ x )
Verteilungsfunktion der Zufallsvariablen X
Es gilt:
0 ≤ FX ( x ) ≤ 1 für alle x ∈
lim FX ( x ) = 0
x →−∞
lim FX ( x ) = 1
x →+∞
P( a < X ≤ b) = FX (b) − FX ( a )
2.1. Diskrete Verteilungen
x1 , x2 , x3 ,...
Funktionswerte der Zufallsvariablen X
pi = P( X = xi )
Einzelwahrscheinlichkeiten mit
∑p
i
i
Die Verteilungsfunktion ist hier FX ( x) =
∑p
i
i:xi ≤x
3
.
=1
I. Wahrscheinlichkeitsrechnung
2.2. Stetige Verteilungen
∞
fX
Dichte von X, eine nicht negative Funktion mit
∫
f X ( x )dx = 1
−∞
x
Die Verteilungsfunktion ist hier FX ( x ) =
∫
f X (t )dt .
−∞
Es gilt:
P( X = x0 ) = 0
f X ( x) =
für jedes x0 ∈
d
FX ( x ) für alle Stetigkeitspunkte x von f X
dx
2.3. Momente
+∞
EX =
∫ x dF
X
Erwartungswert von X
( x)
−∞
Speziell für diskretes X: E ( X ) = ∑ xi ⋅ pi
+∞
stetiges X: E ( X ) =
∫ x⋅ f
X
( x)dx
−∞
i
Für eine stetige Funktion g gilt
+∞
Eg ( X ) = ∑ g ( xi ) ⋅ pi
bzw.
Eg ( X ) =
μ Anf ;k = E ( X k )
μ Zen ;k = E ( X − EX )
∫ g ( x) ⋅ f
X
( x )dx
−∞
i
k-tes Anfangsmoment von X (k = 1, 2, ... )
k
k-tes Zentralmoment von X (k = 1, 2, ... )
Wenn μ Anf ;n existiert, so existieren auch μ Anf ;k und μ Zen ;k für alle k ≤ n.
2.4. Spezielle Momente (Varianz, Schiefe, Exzess)
μ Zen;2 = Var ( X ) = E ( X − E ( X )) 2
Streuung (= Varianz) von X
Speziell für
diskretes X:
Var ( X ) = ∑ ( xi − E ( X )) 2 ⋅ pi
i
+∞
stetiges X:
Var ( X ) =
∫ ( x − E ( X ))
−∞
4
2
f X ( x)dx
I. Wahrscheinlichkeitsrechnung
Es gilt:
Var ( X ) = E ( X 2 ) − ( E ( X )) 2 .
Verschiebungssatz von STEINER
μZen;2 = Var ( X ) = E ( X − E ( X )) 2 Standardabweichung von X
μ Zen;3
( μ Zen;2 )
3
=
2
E ( X − E ( X ))3
(
Var ( X )
)
Schiefe von X
3
μ Zen;4
E ( X − E ( X )) 4
−
3
=
−3
4
( μ Zen;2 ) 2
Var ( X )
(
Es gilt:
)
Exzess (= Wölbung) von X
E (a + b ⋅ X ) = a + b ⋅ E ( X )
Var (a + b ⋅ X ) = b 2 ⋅ Var ( X )
P( X − E ( X ) ≥ ε ) ≤
Var ( X )
ε2
für jedes ε > 0
TSCHEBYSCHEW-Ungleichung
2.5. Weitere Kennwerte von Verteilungen
Qα
Quantil der Ordnung α (0 < α < 1) ist jede Zahl Qα , für die
FX (Qα − 0) ≤ α ≤ FX (Qα ) gilt. Ist FX streng monoton, so ist Qα
eindeutig die Zahl, für die FX (Qα ) = α .
Spezialfälle:
Med ( X ) = Q0,5
Median (= Zentralwert)
Q0,25 , Q0,75
Quartile
Für einen Median gilt stets
P( X < Q0,5 ) ≤
Mod ( X )
1
1
und P ( X > Q0,5 ) ≤ .
2
2
Modalwert ist ein Wert der Zufallsvariablen X, für den die
Einzelwahrscheinlichkeit bzw. die Dichte ein lokales Maximum
besitzt. Nach der Anzahl der Modalwerte heißt eine Verteilung
uni-, bi- oder multimodal.
5
I. Wahrscheinlichkeitsrechnung
2.6. Spezielle diskrete Verteilungen
Name
Parameter
Einzelwahrscheinlichkeiten P(X=k)
ErwarVarianz
tungswert
Binomialverteilung
n ∈ {1, 2,...}
0 < p <1
⎛n⎞ k
n −k
⎜ k ⎟ p (1 − p ) = B( k | n; p )
⎝ ⎠
für 0 ≤ k ≤ n
n⋅ p
n ⋅ p ⋅ (1 − p )
1− 2 p
np(1 − p )
1 − 6 p(1 − p )
np(1 − p )
0 < p <1
(1 − p ) k ⋅ p = Geo( k | p )
für k = 0,1, 2,...
1− p
p
1− p
p2
2− p
1− p
6+
r >0
0 < p <1
⎛ r + k − 1⎞
k r
⎜ k ⎟ (1 − p ) p = NB( k | r; p )
⎝
⎠
für k = 0, 1, 2, ...
r ⋅ (1 − p )
p
r ⋅ (1 − p )
p2
geometrische
Verteilung
negative
Binomialverteilung
hypergeometrische
Verteilung
POISSONverteilung
N , M , n ∈ {1, 2,...}
0≤ M ≤ N
0≤n≤ N
⎛ M ⎞⎛ N − M ⎞ ⎛ N ⎞
⎜ k ⎟ ⎜ n − k ⎟ ⎜ n ⎟ = Hy ( k | N ; M ; n )
⎝ ⎠⎝
⎠ ⎝ ⎠
max(0, n + M − N ) ≤ k ≤ min( M , n )
λk
0 > λ
n⋅
⋅ e − λ = Po( k | λ )
λ
k!
für k = 0,1, 2,...
6
M
N
n
λ
M
N
⎛ M ⎞ N −n
⎜1 − ⎟
N ⎠ N −1
⎝
Schiefe
2− p
r ⋅ (1 − p )
Exzess
p2
1− p
p2 − 6 p + 6
r ⋅ (1 − p )
( N − 2 M )( N − 2n )
( N − 2)
nM ( N − M )( N − n )
N −1
(kompliziert)
1
1
λ
λ
I. Wahrscheinlichkeitsrechnung
2.7. Spezielle stetige Verteilungen
Name
Parameter
gleichmäßige a , b ∈
Verteilung
a<b
Exponentialλ>0
verteilung
μ∈
Normalverteilung
σ2 >0
ERLANGVerteilung
GammaVerteilung
k ∈ {1, 2,...}
λ>0
p>0
λ>0
Kurzbezeichnung
G ( a; b)
Ex ( λ )
λ e − λ x für x ≥ 0 ; 0 sonst
N ( μ ;σ )
2
Erl ( k ; λ )
Γ ( p; λ )
Wahrscheinlichkeitsdichte f(x)
1
für a ≤ x ≤ b ; 0 sonst
b−a
⎛ 1 ⎛ x − μ ⎞2 ⎞
1
exp ⎜ − ⎜
⎜ 2 ⎝ σ ⎟⎠ ⎟⎟
σ 2π
⎝
⎠
λk
( k − 1)!
λ
p
Γ( p )
e − λ x x k −1 für x > 0 ; 0 sonst
e − λ x x p −1 für x > 0 ; 0 sonst
∞
Erwartungswert
a+b
2
1
Varianz
(b − a ) 2
12
1
λ
λ2
2
6
μ
σ2
0
0
k
k
λ
λ
p
p
λ
λ2
2
Schiefe
0
2
k
2
p
Exzess
6
−
5
6
k
6
p
Dabei ist die Gammafunktion definiert durch Γ( p ) = ∫ t p −1e − t dt . Es gilt Γ( p ) = ( p − 1) Γ( p − 1), Γ(1) = 1, Γ( 12 ) = π , Γ( k ) = ( k − 1)! für k = 1, 2,...
0
7
I. Wahrscheinlichkeitsrechnung
2.8. Prüfverteilungen
Name
Parameter
Wahrscheinlichkeitsdichte f(x)
⎛ − x2 ⎞
1
exp ⎜
⎟
2π
⎝ 2 ⎠
standardisierte
Normalverteilung
t-Verteilung
⎛ f +1⎞
f +1
Γ⎜
2 − 2
⎟ ⎛
⎝ 2 ⎠ ⋅ 1+ x ⎞
⎜
f ⎟⎠
⎛ f ⎞
⎝
Γ⎜ ⎟ π ⋅ f
⎝2⎠
f Freiheitsgrade
f ∈ {1, 2,...}
χ²-Verteilung
x
f Freiheitsgrade
f ∈ {1, 2,...}
F-Verteilung
f
x
−1 −
2
2
e
⎛ f ⎞
2 Γ⎜ ⎟
⎝2⎠
f
2
x
Die Verteilungsfunktion Φ ( x ) =
∫
−∞
Streuung
Modalwert
0
1
0
0 für f ≥ 2
für x > 0
⎛ fZ + f N ⎞ ⎛ fZ
f Z Zählerfreiheitsgrade Γ ⎜
⎟⎜
⎝ 2 ⎠ ⎝ fN
f N Nennerfreiheitsgrade
⎛
Γ⎜
f Z , f N ∈ {1, 2,...}
⎝
Erwartungswert
f
fZ
−
f
für f ≥ 3
f −2
2f
0
f − 2 für f ≥ 3
0
für f ≤ 2
fZ + fN
2
⎞ 2 f2Z −1 ⎛
fZ ⎞
⎟ x
⎜1 + f x ⎟
N
⎠
⎝
⎠
fZ ⎞ ⎛ fN ⎞
⎟Γ⎜
⎟
2 ⎠ ⎝ 2 ⎠
für x ≥ 0
fN
fN − 2
für f N ≥ 3
2 f N2 ( f Z + f N − 2)
f Z ( f N − 2) 2 ( f N − 4)
für f N ≥ 5
f N ( f Z − 2)
für f Z ≥ 2
f Z ( f N + 2)
0
für f Z = 1
1 −2t
e dt der standardisierten Normalverteilung ist vertafelt in IV.5. Die Γ-Funktion wird in I.2.7. definiert.
2π
2
8
I. Wahrscheinlichkeitsrechnung
2.9. BERNOULLI-Schema
In einem Versuch kann das Ereignis A mit der Wahrscheinlichkeit p=P(A) eintreten.
Der Versuch wird unabhängig wiederholt, das Eintreten von A als Erfolg bezeichnet.
Zufallsvariable
Anzahl der Erfolge in n Versuchen
Anzahl der Misserfolge vor dem ersten Erfolg
Anzahl der Misserfolge vor dem n-ten Erfolg
Verteilung
B(n; p)
Geo(p)
NB(n; p)
2.10. Normalverteilung
X ∼ N ( μ ;σ 2 )
X ist normalverteilt mit μ = E ( X ) und σ 2 = Var ( X ) > 0.
Dichte der Normalverteilung
μ −σ
μ
μ +σ
P( μ − σ ≤ X ≤ μ + σ ) ≈ 0,6827
Es gilt für ein X ∼ N ( μ ;σ ) :
2
Z=
X −μ
σ
Z ∼ N (0;1)
P( μ − 2σ ≤ X ≤ μ + 2σ ) ≈ 0,9545
P( μ − 3σ ≤ X ≤ μ + 3σ ) ≈ 0,9973
standardisiertes X
Z ist standardnormalverteilt, d. h. mit μ = 0 und σ 2 = 1 .
X ∼ N ( μ ;σ 2 ) ⇔ a + bX ∼ N (a + bμ ; b2σ 2 )
Es gilt:
X ∼ N ( μ ;σ 2 ) ⇔ Z =
X −μ
σ
∼ N (0;1)
2.11. Quantile von Prüfverteilungen
α
Ordnung des Quantils (siehe Abschnitt I.2.5.)
zα
Quantil der standardisierten Normalverteilung (vertafelt in IV.3.)
Es gilt z1−α = − zα .
9
I. Wahrscheinlichkeitsrechnung
Dichte der Prüfverteilung
α
-0,5
t f ;α
5,5
Quantil der t-Verteilung mit f Freiheitsgraden (vertafelt in IV.6.)
t f ;1−α = −t f ;α .
Es gilt
χ 2f ;α
Q
3,5α
1,5
Quantil der χ 2 -Verteilung mit f Freiheitsgraden (vertafelt in IV.7.)
Für f > 30 ist χ
2
f ;α
⎛
2
2 ⎞
≈ f ⋅ ⎜1 −
+ zα ⋅
⎟
9f ⎠
⎝ 9f
3
eine gute Näherung.
F f Z ; f N ;α Quantil der F-Verteilung mit den Freiheitsgraden f Z und f N (vertafelt in
IV.8. und IV.9.)
Ff Z ; f N ;1−α =
Es gilt
3.
1
Ff N ; f Z ;α
.
Zweidimensionale Verteilungen
3.1. Diskrete Verteilungen
x1 , x2 ,..., xk
y1 , y2 ,..., ym
Werte der Zufallsvariablen X
Werte der Zufallsvariablen Y
⎛X⎞
pij = P( X = xi , Y = y j ) Einzelwahrscheinlichkeiten des Zufallsvektors ⎜ ⎟
⎝Y ⎠
Verteilungstabelle:
Y
y1
Es gilt:
y2 ... ym
X
x1
x2
p11 p12 ... p1m
p21 p22 ... p2 m
p1 •
xk
pk 1 pk 2 ... pkm
pk •
p•1 p• 2 ... p• m
p••
10
p2 •
0 ≤ pij ≤ 1
k
m
p•• = ∑∑ pij = 1
i =1 j =1
I. Wahrscheinlichkeitsrechnung
Randverteilungen
m
Einzelwahrscheinlichkeiten von X :
P( X = xi ) = pi • = ∑ pij
j =1
k
Einzelwahrscheinlichkeiten von Y :
P(Y = y j ) = p• j = ∑ pij
i =1
3.2. Stetige Verteilungen
f ( x, y ) gemeinsame Dichte von X und Y
∞ ∞
Es gilt
∫∫
x
f ( x, y )dydx = 1
und
P ( X < x, Y < y ) =
y
∫∫
f ( s, t )dtds .
−∞ −∞
−∞ −∞
Randverteilungen
∞
f X ( x) =
Dichte von X :
∫
f ( x, y )dy
−∞
∞
fY ( y ) =
Dichte von Y :
∫
f ( x, y )dx
−∞
3.3. Funktionen zweier Zufallsvariablen
Es sei g |
gilt
2
→
eine stetige Funktion. Dann ist g ( X , Y ) ein Zufallsvariable und es
k
m
Eg ( X , Y ) = ∑∑ g ( xi , y j ) pij
im diskreten Fall,
i =1 j =1
∞ ∞
Eg ( X , Y ) =
∫ ∫ g ( x, y ) f ( x, y )dydx
im stetigen Fall.
−∞ −∞
Speziell ist
k
m
E ( X ⋅ Y ) = ∑∑ xi ⋅ y j ⋅ pij bzw. E ( X ⋅ Y ) =
i =1 j =1
Es gilt:
∞ ∞
∫ ∫ x ⋅ y ⋅ f ( x, y ) dydx .
−∞ −∞
E ( X + Y ) = E ( X ) + E (Y )
( E X ⋅ Y ) 2 ≤ E ( X 2 ) ⋅ E (Y 2 )
11
CAUCHY-SCHWARZ-Ungleichung
I. Wahrscheinlichkeitsrechnung
3.4. Unabhängigkeit zweier Zufallsvariablen
X und Y sind unabhängig voneinander, wenn
pij = pi • ⋅ p• j für alle i = 1,..., k ; j = 1,..., m im diskreten Fall
bzw.
f ( x, y ) = f X ( x ) ⋅ fY ( y ) für alle x, y ∈
im stetigen Fall.
3.5. Kovarianz und Korrelationskoeffizient
Cov( X , Y ) = E (( X − E ( X ))(Y − E (Y )))
Kovarianz von X und Y
Cov( X , Y ) = Cov(Y , X )
Cov( X , Y ) = E ( X ⋅ Y ) − E ( X ) ⋅ E (Y )
Var ( X + Y ) = Var ( X ) + 2Cov( X , Y ) + Var (Y )
Es gilt:
ρ XY =
Cov( X , Y )
Var ( X ) ⋅ Var (Y )
Korrelationskoeffizient von X und Y
−1 ≤ ρ XY ≤ +1
Es gilt:
X , Y unabhängig ⇒ ρ XY = 0
Wenn ρ XY = 0 , so heißen X und Y unkorreliert und es gilt
E ( X ⋅ Y ) = E ( X ) ⋅ E (Y )
und
Var ( X + Y ) = Var ( X ) + Var (Y ) .
3.6. Zweidimensionale Normalverteilung
−1
⎧⎪ −1 ⎡ ( x − μ ) 2
( x − μ x )( y − μ y ) ( y − μ y ) 2 ⎤ ⎫⎪
(1 − ρ 2 ) 2
x
−
+
f ( x, y ) =
exp ⎨
2
ρ
⎥⎬
2 ⎢
2
2πσ xσ y
σ xσ y
σ y2 ⎦ ⎭⎪
⎪⎩ 2(1 − ρ ) ⎣ σ x
Dichte der zweidimensionalen
Normalverteilung
( x, y ∈
12
)
I. Wahrscheinlichkeitsrechnung
Die Parameter sind μ x = E ( X ), μ y = E (Y ), σ x2 = Var ( X ), σ y2 = Var (Y ), ρ = ρ XY .
X ∼ N(μ x ;σ x2 )
⎛X⎞
Wenn ⎜ ⎟ normalverteilt ist, gilt:
⎝Y ⎠
Y ∼ N(μ y ;σ y2 )
X + Y ∼ N ( μ x + μ y ;σ x2 + 2 ρσ xσ y + σ y2 )
3.7. Faltung zweier Verteilungen
X und Y seien zwei unabhängige Zufallsvariablen mit den Verteilungsfunktionen FX
bzw. FY .
FX +Y
Faltung von X und Y (= Verteilungsfunktion von X+Y )
∞
Es gilt
∫F
FX +Y ( z ) =
X
∞
( z − y )dFY ( y ) =
−∞
∫ F ( z − x )dF
Y
X
−∞
Speziell für
¾ X und Y diskret: P( X + Y = z ) = ∑ P( X = xi ) P(Y = z − xi )
i
∞
¾ X und Y stetig:
f X +Y ( z ) =
∫
f X ( x ) fY ( z − x )dx
−∞
Faltung einiger Verteilungen ( X und Y unabhängig)
X
N ( μ1;σ 12 )
Po( λ1 )
Y
N ( μ2 ;σ 22 )
Po( λ2 )
X+Y
N ( μ1 + μ2 ;σ 12 + σ 22 )
Po( λ1 + λ2 )
χ 2 ( f1 )
Γ( p1 ; λ )
Ex ( λ )
χ 2 ( f2 )
Γ( p2 ; λ )
Ex ( λ )
χ 2 ( f1 + f 2 )
Γ( p1 + p2 ; λ )
Erl (2; λ )
B( n1 ; p )
NB( r1; p )
B( n2 ; p )
NB( r2 ; p )
B( n1 + n2 ; p )
NB( r1 + r2 ; p )
13
( x) .
I. Wahrscheinlichkeitsrechnung
4.
Grenzwertsätze
4.1. Approximation von Verteilungen
Einzelwahrscheinlichkeit
ersetze durch
wenn
Hy ( k | N , M , n )
B ( k | n, p =
M
)
N
Po( k | λ = np )
0,1 <
⎛ m + 12 − np ⎞
⎛ l − 12 − np ⎞
Φ⎜
−
Φ
⎟
⎜
⎟
⎝ np (1 − p ) ⎠
⎝ np (1 − p ) ⎠
n ⋅ p ⋅ (1 − p ) > 9
B ( k | n, p )
m
∑ B ( k | n, p )
k =l
M
n
< 0,9 und
< 0,05
N
N
n ≥ 1500 ⋅ p und n ⋅ p ≤ 10
4.2. Gesetz der großen Zahlen
Es sei X 1 , X 2 ,... eine Folge unabhängiger, identisch verteilter Zufallsvariablen.
Wenn der Erwartungswert μ = EX i der Zufallsvariablen X i existiert, dann gilt mit Wahrscheinlichkeit 1
lim
n →∞
X 1 + X 2 + ... + X n
=μ .
n
Gesetz der großen Zahlen
von KOLMOGOROW
4.3. Zentraler Grenzwertsatz
Es sei X 1 , X 2 ,... eine Folge unabhängiger, identisch verteilter Zufallsvariablen.
Wenn der Erwartungswert μ = E ( X i ) und die Varianz
σ 2 = Var ( X i ) der Zufallsvariablen X i existieren, dann
gilt für alle x ∈
⎛ X + X 2 + ... + X n − n ⋅ μ
⎞
lim P ⎜ 1
≤ x ⎟ = Φ( x) ,
n →∞
σ⋅ n
⎝
⎠
wobei Φ die Verteilungsfunktion der standardisierten
Normalverteilung ist.
14
Zentraler Grenzwertsatz
von LINDEBERG / LÈVY
II. Beschreibende Statistik
II. Beschreibende Statistik
1.
Häufigkeiten und Kennwerte für ein Merkmal
Merkmal
X
x1 , x2 ,..., xn Stichproben- oder Beobachtungswerte zum Merkmal X
Stichproben- oder Beobachtungsumfang
n
1.1. Primäre Häufigkeitstabelle
a1 , a2 ,..., ak Ausprägungen des Merkmals X
h j = h( a j ) absolute Häufigkeit der Ausprägung a j
fj =
hj
n
relative Häufigkeit der Ausprägung a j
Ausprä- absol.
gung
Hfgk.
a1
h1
a2
h2
relat.
Hfgk.
f1
f2
ak
hk
fk
1
n
Für ordinal skalierte Beobachtungswerte gelte a1 < a2 < … < ak . Dann sind die
folgenden Bezeichnungen sinnvoll:
j
H j = ∑ hi
absolute Summenhäufigkeit bis einschließlich zur Ausprägung aj
Fj = ∑ fi
relative Summenhäufigkeit bis einschließlich zur Ausprägung aj
i =1
j
i =1
k
Es gilt
H k = ∑ hi = n
k
Fk = ∑ f i = 1 , vgl. Tabelle oben.
und
i =1
i =1
1.2. Sekundäre Häufigkeitstabelle
Die Beobachtungswerte seien metrisch skaliert und für die Klassengrenzen gi gelte
g0 < g1 < ... < g k .
Klasse
[ g0 , g1 ]
( g1 , g 2 ]
( g k −1 , g k ]
Klassenmitte
a1
a2
ak
absolute
Häufigkeit
h1
h2
relative
Häufigkeit
f1
f2
hk
fk
n
1
15
absolute
Summenhfgk.
H1
H2
Hk = n
relative
Summenhfgk.
F1
F2
Fk = 1
II. Beschreibende Statistik
k
aj =
Anzahl der Klassen
g j −1 + g j
2
Mitte der j-ten Klasse
hj
fj =
Faustformel von STURGESS: k ≈ 1 + 1, 44 ⋅ ln n
absolute Häufigkeit der j-ten Klasse
hj
n
relative Häufigkeit der j-ten Klasse
j
H j = ∑ hi
absolute kumulative Häufigkeit der j-ten Klasse
Fj = ∑ fi
relative kumulative Häufigkeit der j-ten Klasse
b j = g j − g j −1
Breite der j-ten Klasse
i =1
j
i =1
Gilt b1 = b2 = ... = bk , handelt es sich um eine äquidistante Klasseneinteilung.
1.3. LORENZkurve und LORENZ’sches Konzentrationsmaß
Vorausgesetzt sind metrische skalierte Beobachtungswerte mit den Ausprägungen
0 < a1 < a2 < ... < ak .
11
LORENZkurve
S k -1
:
S2
S1
0
F1
F1
Fj
11
relative Summenhäufigkeit (siehe Abschnitt II.1.1.)
k
n
j =1
i =1
GS = ∑ a j h j = ∑ xi
Sj =
F 2 ... Fk-1
F k -1
F2
1 j
∑ ai hi
GS i =1
Summe aller Beobachtungswerte
relative Summe der Beobachtungswerte bis zur j-ten Ausprägung
⎡ 1 k
⎤
GINI-Koeffizient
LKM = ⎢
F j −1 + F j ) ⋅ a j h j ⎥ − 1 mit F0 = 0
(
∑
GS
=
1
j
⎣
⎦
1 k
= 1 − ∑ ( S j −1 + S j ) ⋅ h j
mit S0 = 0
n j =1
n
normiertes LORENZ’sches Konzentrationsmaß
LKM norm =
LKM
n −1
Im Falle einer sekundären Häufigkeitsverteilung sind die Ausprägungen aj durch die
Klassenmitten a j zu ersetzen.
16
II. Beschreibende Statistik
1.4. Empirische Kennwerte für ein metrisch skaliertes Merkmal
x=
1 n
1 k
x
=
a jh j
∑ i n∑
n i =1
j =1
arithmetisches Mittel
s2 =
1 n
( xi − x ) 2
∑
n − 1 i =1
empirische Streuung (= empirische Varianz)
s2 =
Es gilt
1 ⎛ n 2
1 ⎛ k 2
2⎞
2⎞
−
⋅
=
x
n
x
⎜ ∑a j ⋅ hj − n ⋅ x ⎟ .
∑
i
⎜
⎟
n − 1 ⎝ i =1
⎠ n − 1 ⎝ j =1
⎠
s = s2
empirische Standardabweichung
s
v = ⋅ 100%
Variationskoeffizient
x
1 n
1 k
M Anf ,l = ∑ xil = ∑ a lj ⋅ h j
empirisches Anfangsmoment l-ter Ordnung
n i =1
n j =1
M Zen ,l =
1 n
1 k
l
x
−
x
=
(
)
∑ i
∑ (a j − x )l ⋅ h j empirisches Zentralmoment l-ter Ordnung
n i =1
n j =1
M Anf ,1 = x , M Zen ,2 =
Es gilt
Sch =
M Zen ,3
(M
Zen ,2
)
3
n −1 2 ⎛ 1 n 2 ⎞
⋅ s = ⎜ ∑ xi ⎟ − x 2 .
n
⎝ n i =1 ⎠
empirische Schiefe
2
Interpretation: Sch = 0 symmetrische Häufigkeitsverteilung
Sch > 0 rechtsschiefe Häufigkeitsverteilung
Sch < 0 linksschiefe Häufigkeitsverteilung
Exz =
M Zen ,4
( M Zen,2 )
2
− 3 empirischer Exzess (= empirische Wölbung)
Interpretation: Exz = 0 normal gewölbte Häufigkeitsverteilung
Exz > 0 spitz gewölbte Häufigkeitsverteilung
Exz < 0 flach gewölbte Häufigkeitsverteilung
Sind die Beobachtungswerte zu einer sekundären Häufigkeitstabelle zusammengefasst
worden, so lassen sich die obigen Kennwerte nur näherungsweise bestimmen. In
diesem Fall ersetze man in den Formeln die Ausprägungen a j durch die Klassenmitten a j .
1.5. Empirische Kennwerte für ein ordinal skaliertes Merkmal
x1* , x2* ,..., xn*
Variationsreihe (geordnete Beobachtungswerte mit x1* ≤ ... ≤ xn* )
R = xn* − x1*
Spannweite
17
II. Beschreibende Statistik
⎧ xn* + xn* +1
2
⎪⎪ 2
, falls n gerade
2
=⎨
⎪ x*n +1
, falls n ungerade
⎪⎩ 2
xMed
x1
x3
4
4
empirischer Median (= Zentralwert)
⎧ xn* + xn* +1
4
⎪⎪ 4
, falls n durch 4 teilbar
=⎨
2
⎪ x *n
sonst
⎪⎩ ⎡⎢ 4 ⎤⎥
unteres Quartil
⎧ x3*n + x3*n +1
4
⎪⎪ 4
, falls n durch 4 teilbar
=⎨
2
⎪ x*3n
sonst
⎪⎩ ⎡⎢ 4 ⎤⎥
oberes Quartil
Dabei bedeutet ⎡⎢...⎤⎥ Aufrunden auf die nächste ganze Zahl.
Q = x3 − x 1
4
Quartilsabstand
4
1.6. Empirischer Kennwert für ein nominal skaliertes Merkmal
Modalwert (= die häufigste Ausprägung oder Klassenmitte)
xMod
1.7. Spezielle Mittelwerte
n
x gew =
∑g ⋅ x
i
i =1
n
∑g
i =1
xhar =
i
i
n
1 1
1
+ + ... +
x1 x2
xn
xgeo = n x1 ⋅ x2 ⋅ ... ⋅ xn
Es gilt stets
gewogenes Mittel (mit den Gewichten gi > 0 )
harmonisches Mittel (wenn alle xi > 0 )
geometrisches Mittel (wenn alle xi > 0 )
xhar ≤ x geo ≤ x .
Anwendung des geometrischen Mittels auf Wachstumsfaktoren einer zeitlichen Folge
x0 , x1 ,..., xt ,... :
x
ct = t
Wachstumsfaktor (t = 1, 2,..., n )
xt −1
18
II. Beschreibende Statistik
rt = ( ct − 1) ⋅ 100%
Wachstumsrate
cgeo = n c1 ⋅ c2 ... ⋅ cn =
n
r = ( cgeo − 1) ⋅ 100%
2.
xn
x0
(t = 1, 2,..., n )
mittlerer Wachstumsfaktor
mittlere Wachstumsrate
Häufigkeitstabellen und Kennwerte für zwei Merkmale
( x1 , y1 ),( x2 , y2 ),...,( xn , yn ) Beobachtungspaare zu den Merkmalen X und Y
2.1. Korrelationskoeffizienten
1 n
1 ⎛ n
⎞
−
−
=
(
)(
)
x
x
y
y
xi yi − n ⋅ x ⋅ y ⎟ empirische Kovarianz
∑
∑
i
i
⎜
n − 1 i =1
n − 1 ⎝ i =1
⎠
s
empirischer Korrelationskoeffizient (nach BRAVAIS und PEARSON)
rxy = x , y
sx ⋅ s y
sx , y =
Dabei sind s x und s y die empirischen Standardabweichungen der Merkmale X bzw. Y.
Rg ( xi )
Rg ( yi )
Rangzahl des i-ten Beobachtungswertes in der x-Reihe
Rangzahl des i-ten Beobachtungswertes in der y-Reihe
n
rSP =
∑ Rg ( x ) ⋅ Rg ( y )
i =1
i
i
− cn
mit cn =
n(n + 1) 2
4
⎡ n
⎤ ⎡ n
⎤
2
2
(
)
Rg
x
−
c
i
n ⎥ ⋅ ⎢ ∑ Rg ( yi ) − cn ⎥
⎢∑
⎣ i =1
⎦ ⎣ i =1
⎦
Rangkorrelationskoeffizient von SPEARMAN
Falls in der x-Reihe und in der y-Reihe kein Rang mehrfach auftritt, gilt
n
rSP = 1 −
6 ⋅ ∑ ( Rg ( xi ) − Rg ( yi )) 2
i =1
n(n 2 − 1)
2.2. Kontingenztafeln
a1 , a2 ,..., ak
b1 , b2 ,..., bm
hij
Ausprägungen des Merkmals X
Ausprägungen des Merkmals Y
absolute Häufigkeit der Ausprägung (ai , b j ) in der Stichprobe ( x1 , y1 ),
( x2 , y2 ),...,( xn , yn ) .
19
II. Beschreibende Statistik
Y
b1 b2
bm
X
a1
a2
h11 h12
h21 h22
h1m
h2m
h1 •
ak
hk 1 hk 2
hkm
hk •
h•1 h• 2
h• m
h••
Kontingenztafel vom Format k × m
h2 •
m
hi• = ∑ hij
Summe der i-ten Zeile
j =1
k
h• j = ∑ hij
Summe der j-ten Spalte
h•• = ∑∑ hij = n
Summe aller Häufigkeiten
i =1
k m
i =1 j =1
eij =
hi• ⋅ h• j
Erwartungshäufigkeit
n
k
m
χ 2 = ∑∑
( hij − eij ) 2
i =1 j =1
⎡⎛
k
hij2
j =1 hi • h• j
m
χ 2 = n ⋅ ⎢⎜⎜ ∑∑
Es gilt
C=
PEARSONsches Chiquadrat
eij
⎣⎢⎝ i =1
χ2
n + χ2
Ckorr =
⎞ ⎤
⎟⎟ − 1⎥ .
⎠ ⎦⎥
Kontingenzkoeffizient
min( k , m)
⋅C
min( k , m) − 1
korrigierter Kontingenzkoeffizient
0 ≤ Ckorr ≤ 1 .
Es gilt stets
Für die 2x2-Kontingenztafel:
h11 ⋅ h22 − h12 ⋅ h21
h11 ⋅ h22 + h12 ⋅ h21
h ⋅h − h ⋅h
ϕ = 11 22 12 21
h1• ⋅ h2 • ⋅ h•1 ⋅ h•2
Q=
Hier gilt
ϕ ≤ Q ≤1
YULEscher Assoziationskoeffizient
Vierfelder-Korrelationskoeffizient
ϕ2 =
1 2
χ
n
20
C=
ϕ2
ϕ2 +1
.
II. Beschreibende Statistik
3.
Trendbestimmung bei Zeitreihen
( xt )t =1,2,...,n
Zeitreihe
3.1. Linearer Trend
g (t ) = a + b ⋅ t
Trendgerade
n
bˆ =
12∑ t ⋅ xt − 6n ⋅ ( n + 1) ⋅ x
t =1
Schätzung des Anstiegs der Trendgeraden
( n − 1) ⋅ n ⋅ ( n + 1)
n +1
aˆ = x − bˆ ⋅
2
Schätzung des Absolutglieds der Trendgeraden
3.2. Polynomialer Trend
g (t ) = β 0 + β1 ⋅ t + ... + β m ⋅ t m
Trendpolynom
(m<n-1)
Die Schätzung der Koeffizienten ist die Lösung des linearen Gleichungssystems
⎛ n
⎜
⎜ ∑t
⎜
⎜⎜
m
⎝ ∑t
∑t
∑t
2
∑t
m +1
⎞ ⎛ βˆ0 ⎞ ⎛ ∑ xt ⎞
⎜ ⎟ ⎜
⎟
m +1 ⎟
ˆ
⎟ ⎜ β1 ⎟ = ⎜ ∑ t ⋅ xt ⎟ .
⎟⎜ ⎟ ⎜
⎟
⎜
⎟
⎟
⎜
⎟
∑ t m+m ⎠⎟ ⎝⎜ βˆm ⎠⎟ ⎝⎜ ∑ t m ⋅ xt ⎠⎟
∑t
∑t
m
3.3. Symmetrisches gleitendes Mittel
gt =
s
∑a ⋅x
i
t +i
symmetrisches gleitendes Mittel der Länge 2s + 1 mit den
i =− s
Gewichten a− s ,..., as ≥ 0 und der Bedingung a− s + ... + as = 1
( t = s + 1, s + 2, ... , n - s ) .
Empfehlung für saisonale Monatsdaten:
a−6 = a6 = 1
24
Quartalsdaten: a−2 = a2 = 1 ,
8
, a−5 = ... = a5 = 1
12
a−1 = a0 = a1 = 1
4
3.4. Exponentielles Glätten
gˆ t = α ⋅ xt + (1 − α ) ⋅ gˆ t −1
gˆ1 = x1
(t = 2,3,..., n )
Rekursionsformel zum exponentiellen
Glätten mit Glättungsfaktor α ∈ (0,1)
21
II. Beschreibende Statistik
Kurzfristige Vorhersage mittels exponentieller Glättung für Zeitreihen
•
ohne Saisonkomponente und ohne Trend:
•
ohne Saisonkomponente und
xn*+1 = gˆ n
α
xn*+1 = 2 ⋅ gˆ n − gˆˆ n +
⋅ ( gˆ n − gˆˆ n )
1−α
mit linearem Trend:
( gˆˆ t ) ist die zweimal mit demselben α exponentiell geglättete Zeitreihe.
4.
Indizes
4.1. Indexformeln
n
0
t
p0i
pti
q0i
qti
Anzahl der Güter im Warenkorb
Basiszeitpunkt oder -zeitraum
Berichtszeitpunkt oder -zeitraum
Preis des i-ten Gutes zum Basiszeitpunkt (i = 1, 2, ... , n)
Preis des i-ten Gutes zum Berichtszeitpunkt (i = 1, 2, ... , n)
Verbrauchsmenge des i-ten Gutes zum Basiszeitpunkt (i = 1, 2, ... , n)
Verbrauchsmenge des i-ten Gutes zum Berichtszeitpunkt (i = 1, 2, ... , n)
nach
LASPEYRES
Preisindex
∑i pti ⋅ q0i
L
P0t =
∑ p0i ⋅ q0i
i
nach
PAASCHE
∑p
=
∑p
ti
P
0t
P
i
⋅ qti
i
0i
Mengenindex
∑i p0i ⋅ qti
L
Q0t =
∑ p0i ⋅ q0i
⋅ qti
P
0t
Q
i
nach
FISHER
U 0t
∑p
=
∑p
ti
⋅ qti
0i
⋅ q0i
i
∑p
=
∑p
ti
⋅ qti
ti
⋅ q0i
i
i
P0Ft = P0Lt ⋅ P0Pt
Q0Ft = Q0Lt ⋅ Q0Pt
Umsatzindex
i
Es gilt
U 0t = P0Lt ⋅ Q0Pt = P0Pt ⋅ Q0Lt .
4.2. Zerlegung von Indizes
Es gilt
22
II. Beschreibende Statistik
p
P = 1 i
p0
P
0t
∑p
⋅ qti
ti
i
⎛ pt
∑⎜ p
i
⎝
0
⎞
⋅ p0i ⎟ ⋅ qti
⎠
= P0t i P ( S ) ,
wobei
∑p
=
∑p
ti
P0t
i
einfacher aggregierter Preisindex,
0i
i
P
(S )
Index der Preisstrukturverschiebung,
und
q
Q = t i
q0
L
0t
∑q
ti
⋅ p0i
i
⎛q
⎞
∑i ⎜ qt ⋅ q0i ⎟ ⋅ p0i
⎝ 0
⎠
= Q0t iQ ( S ) ,
wobei
∑q
=
∑q
ti
Q0t
i
einfacher aggregierter Mengenindex,
0i
i
Q
(S )
Index der Mengenstrukturverschiebung .
4.3. Bilateraler Preisvergleich USA - Deutschland
Warenkorb D
Mengen [ME]
qD,i
Preise [GE/ME]
p€,i
qUSA,i
p$,i
Warenkorb USA
Devisenkurs in $
DK D ,USA
∑p
=
∑p
$,i
VGPD ,USA
⋅ qD ,i
i
€,i ⋅ qD ,i
€
Verbrauchergeldparität in $
€
anhand des deutschen
i
∑p
=
∑p
€,i
VGPUSA, D
Warenkorbs
⋅ qUSA,i
i
$,i ⋅ qUSA,i
Verbrauchergeldparität in €
$
anhand des amerikani-
i
schen Warenkorbs
VGP D ,USA =
KKPD ,USA =
VGPD ,USA
VGPUSA, D
DK D ,USA
VGPD ,USA
mittlere Verbrauchergeldparität in $
€
Kaufkraftparität anhand des deutschen Warenkorbs
23
II. Beschreibende Statistik
5.
Statistische Qualitätskontrolle
5.1. Kontrollkarten
Mittelwertkarte ( x -Karte )
Über der Zeitachse werden die arithmetischen Mittel aus Stichproben jeweils vom
Umfang n grafisch dargestellt.
Ko
Mittelwerte
Wo
µ0
Wu
Ku
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
Stichproben
μ0
σ
K o u = μ0 ± 3 ⋅ σ
Wo u = μ0 ± 2 ⋅ σ
Normwert des zu prüfenden, metrisch skalierten Merkmals
Standardabweichung des Merkmals
n
n
obere bzw. untere Kontrollgrenze (= Eingreifgrenze)
obere bzw. untere Warngrenze (= Vorwarngrenze)
Für ein normalverteiltes Merkmal beträgt die Wahrscheinlichkeit für einen Fehlalarm:
α = 0,0027
beim Faktor z1−α 2 = 3 ,
α = 0,0455
beim Faktor z1−α 2 = 2 .
s-Karte
Über der Zeitachse werden die empirischen Standardabweichungen aus Stichproben
jeweils vom Umfang n grafisch dargestellt.
σ0
Standardabweichung des zu prüfenden, metrisch skalierten Merkmals
⎛
⎞
3
Ko = ⎜ 1 +
1 − c22 ⎟ ⋅ σ 0
⎝ c2
⎠
obere Kontrollgrenze
24
II. Beschreibende Statistik
⎧
K u = max ⎨0,
⎩
⎫
⎛
⎞
3
1 − c22 ⎟ ⋅ σ 0 ⎬
⎜1 −
⎝ c2
⎠
⎭
untere Kontrollgrenze
2
⎛n⎞
⎛ n −1⎞
⋅Γ⎜ ⎟ Γ⎜
⎟
n −1 ⎝ 2 ⎠
⎝ 2 ⎠
Dabei ist c2 =
(Γ-Funktion siehe Abschnitt I.2.7.).
mittlere Standardabweichungen
Κο
σ0
0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
Stichproben
p-Karte
Über der Zeitachse werden die relativen Häufigkeiten des Ausschusses aus Stichproben vom Umfang nt grafisch dargestellt.
Ausschussquoten
Ko
Wo
p0
0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
Stichproben
p0
Ko ,t = p0 + 3 ⋅
Ausschussquote des ungestörten Prozesses
p0 (1 − p0 )
nt
obere Kontrollgrenze (= Eingreifgrenze)
25
II. Beschreibende Statistik
⎛
K u ,t = max ⎜ 0, p0 − 3 ⋅
⎝
p0 (1 − p0 ) ⎞
⎟
nt
⎠
untere Kontrollgrenze
Warngrenzen erhält man, indem der Faktor 3 durch 2 ersetzt wird.
5.2. Einfacher Stichprobenplan
( N , n, c )
einfacher Prüfplan zur Attributprüfung
mit
N ... Umfang des zu prüfenden Postens
n ... Stichprobenumfang
c ... Annahmezahl
M
Anzahl der Fehlerhaften im Posten
p=
M
N
Ausschussquote des Postens
X
Anzahl der Fehlerhaften in der Stichprobe
L( p ) = P( X ≤ c | p ) Operationscharakteristik des Prüfplans (= Wahrscheinlichkeit,
den Posten anzunehmen, wenn er die Ausschussquote p hat)
Es gilt
c
⎛ M ⎞⎛ N − M ⎞ ⎛ N ⎞
M
L( p ) = ∑ ⎜ ⎟ ⎜
mit p =
.
⎟
⎜
⎟
N
k =0 ⎝ k ⎠ ⎝ n − k ⎠
⎝n⎠
pProd
pKons
α = P( X > c | pProd ) = 1 − L( pProd )
β = P( X ≤ c | pKons ) = L( pKons )
p0,5
Medianpunkt (= Prüfpunkt = Indifferenzpunkt, definiert durch L( p0,5 ) = 0,5 )
Näherung:
p0,5 ≈
1 2
c+2 3
χ 2( c +1);0,5 ≈
2n
n
D ( p ) = p ⋅ L( p )
h=−
Gutlage (= AQL)
Schlechtlage (= LQ)
Produzentenrisiko
Konsumentenrisiko
mittlerer Durchschlupf eines Postens mit Ausschussquote p
p dL( p )
⋅
L( p ) dp
Näherung:
(Quantile der χ 2 -Verteilung in IV.7.)
Steilheit der Operationscharakteristik
p = p0,5
h≈
2 ⋅ ( n ⋅ p0,5 ) c +1 − n ⋅ p0,5
2 ⋅ c + 1, 47
e
≈
π
c!
26
III. Schließende Statistik
III. Schließende Statistik
1.
Punktschätzungen
Merkmal mit Verteilung Pθ
X
θ
zu schätzender Parameter
X 1 , X 2 ,..., X n
mathematische Stichprobe (= unabhängige, identisch wie X
verteilte Zufallsvariablen)
Stichprobenumfang
n
ˆ
ˆ
θ n = θ n ( X 1 ,..., X n ) Punktschätzung für θ (= reellwertige Stichprobenfunktion)
1.1. Wünschenswerte Eigenschaften von Punktschätzungen
Eθ (θˆn ) = θ
lim E (θˆ ) = θ
Erwartungstreue
lim P ( θˆn − θ > ε ) = 0 für jedes ε > 0
schwache Konsistenz
P (lim θˆn = θ ) = 1
starke Konsistenz
n →∞
θ
n
n →∞
n →∞
asymptotische Erwartungstreue
θˆn hat die kleinste Varianz von ⎫
⎪
allen erwartungstreuen Punkt- ⎬
⎪
schätzungen für θ
⎭
Effizienz
Die wichtigsten Punktschätzungen und ihre Eigenschaften
zu
Schätzer
schätzender
Parameter
1 n
E( X )
X = ∑ Xi
n i =1
1 n
S2 =
( X i − X )2
∑
n − 1 i =1
Var ( X )
1 n
M Zen ;2 = ∑ ( X i − X ) 2
n i =1
erwar- asympt. schw.
tungs- erwart.- konsistreu
treu
tent
S = S2
hn ( A) **)
Var ( X )
P ( A)
*)
Ja, wenn X normalverteilt ist.
effizient
Ja*)
Ja
Ja
Ja
Ja
Ja
Ja
Ja
Ja
Nein
Ja
Ja
Ja
Ja
Ja
Ja
Ja
Ja
Ja
Ja
**)
stark
konsistent
relative Häufigkeit siehe III.3.2.
27
Nein
Ja
III. Schließende Statistik
1.2. Maximum-Likelihood-Methode
L( x1 ,..., xn ;θ )
Likelihood-Funktion, wobei
⎧ Pθ ( X =x1 ) ⋅ ... ⋅ Pθ ( X =xn ),
⎪
⎪
L( x1 ,..., xn ;θ ) = ⎨
,
⎪ fθ ( x1 ) ⋅ ... ⋅ fθ ( xn )
⎪⎩
wenn X diskret verteilt ist mit den
Einzelwahrscheinlichkeiten Pθ ( X =xi )
wenn X stetig verteilt ist mit der
Dichte fθ
Einen Maximum-Likelihood-Schätzer θˆn für θ erhält man als Lösung der
Maximum-Likelihood-Gleichung:
2.
1−α
d
ln L( X 1 ,..., X n ;θ ) = 0 .
dθ
Bereichsschätzungen
Konfidenzniveau (= statistische Sicherheit = Vertrauenswahrscheinlichkeit)
2.1. Konfidenzintervalle für µ und σ ² eines normalverteilten
Merkmals
zu schätzen
Erwartungswert
µ
bekannt
Erwartungswert
µ
σ2
χ
2
2
n −1;1−α
n
Varianz
σ2
σ
X − z1−α 2 ⋅
n
(n − 1) ⋅ S
Varianz
σ
untere Grenze
S
X − tn −1;1−α 2 ⋅
n
µ
∑(X
i =1
i
2
X + z1−α 2 ⋅
(n − 1) ⋅ S
χ n2−1;α
2
− μ )2
χ n2;1−α
obere Grenze
S
X + tn −1;1−α 2 ⋅
n
n
∑(X
i =1
2
i
σ
n
2
2
− μ )2
χ n2;α
2
2.2. Konfidenzintervall für eine Wahrscheinlichkeit p
Konfidenzintervall für die Wahrscheinlichkeit p=P(A) eines zufälligen Ereignisses A:
⎛
h ( A)(1 − hn ( A)) 1
h ( A)(1 − hn ( A)) 1 ⎞
− ; hn ( A) + z1−α 2 ⋅ n
+ ⎟⎟
KI p ≈ ⎜⎜ hn ( A) − z1−α 2 ⋅ n
n
2n
n
2n ⎠
⎝
28
III. Schließende Statistik
hn ( A) ist die relative Häufigkeit des Ereignisses A (siehe Abschnitt III.3.2.)
Approximationsbedingung: n ⋅ hn ( A) ≥ 5 und n ⋅ (1 − hn ( A)) ≥ 5 .
3.
Signifikanztests
Jeder Signifikanztest besteht aus
H0
T
K*
Nullhypothese,
Testgröße,
Ablehnungsbereich.
Entscheidungsregel:
T ∈ K * ⇒ H 0 ablehnen (H0 ist signifikant falsch.)
T ∉ K * ⇒ H 0 nicht ablehnen (Es ist keine signifikante Entscheidung möglich.)
α
Signifkanzniveau ( 0 < α < 1 ). α ist eine obere Grenze für die Wahrscheinlichkeit der Fehlentscheidung 1. Art: P(T ∈ K * ) ≤ α , wenn H 0 wahr ist.
3.1. Parametertests für ein normalverteiltes Merkmal
X
normalverteiltes Merkmal mit Erwartungswert µ und Varianz σ 2
x1 ,..., xn
konkrete Stichprobe vom Umfang n zum Merkmal X
x , s2
s02 =
empirisches Mittel und empirische Streuung (siehe II.1.4.)
n
1
∑ ( xi − μ )2 Punktschätzung für σ 2 bei bekanntem µ
n i =1
NullVoraushypothese setzung
a) μ = μ0
b)
c)
Testgröße
einfacher
unbekannt t-Test
x − μ0
n
s
μ ≥ μ0
μ ≤ μ0
σ
μ = μ0
σ 2 bekannt
2
x − μ0
Z-Test
σ
σ 2 = σ 02
σ ≥σ
2
2
0
σ 2 ≤ σ 02
d)
Name des
Tests
σ 2 = σ 02
Chi-Quadratµ unbekannt
Streuungstest
µ bekannt
Chi-QuadratStreuungstest
n
( n − 1) ⋅ s 2
σ 02
n ⋅ s02
σ
2
0
Ablehnungsbereich K*
(−∞; −tn −1;1−α 2 ) ∪ (tn −1;1−α 2 ; ∞)
(−∞ ; −tn −1;1−α )
(tn −1;1−α ; ∞)
(−∞; − z1−α 2 ) ∪ ( z1−α 2 ; ∞)
(0; χ n2−1;α ) ∪ ( χ n2−1;1−α ; ∞)
2
(0; χ
2
n −1;α
)
( χ n2−1;1−α ; ∞)
(0; χ n2;α ) ∪ ( χ n2;1−α ; ∞)
2
Einseitige Tests in b) und d) werden analog zu a) bzw. c) durchgeführt.
29
2
2
III. Schließende Statistik
3.2. Test auf Wahrscheinlichkeit (Anteilswert)
p = P( A) unbekannte Wahrscheinlichkeit eines zufälligen Ereignisses A
Anzahl des Eintretens von A
hn ( A)
relative Häufigkeit von A in n Versuchen ( =
)
n
zweiseitige Fragestellung
H 0 : p = p0
T=
1
2n
p0 (1 − p0 )
n
hn ( A) − p0 −
K * ≈ ( z1−α 2 ; ∞)
einseitige Fragestellungen
H 0 : p ≤ p0
H 0 : p ≥ p0
1
2n
T=
p0 (1 − p0 )
n
1
hn ( A) − p0 +
2n
T=
p0 (1 − p0 )
n
hn ( A) − p0 −
K * ≈ ( z1−α ; ∞)
K * ≈ (−∞ ; − z1−α )
Approximationsbedingung: n ⋅ hn ( A) ≥ 5 und n ⋅ (1 − hn ( A)) ≥ 5 .
3.3. Anpassungstests
X
n
Merkmal mit unbekannter Verteilungsfunktion FX
Stichprobenumfang
χ²-Anpassungstest
Benötigt werden eine Klasseneinteilung aus k Klassen und dazu eine Häufigkeitstabelle mit den Klassenhäufigkeiten h j ( j = 1, 2,..., k ).
F0
r
pj
hypothetische Verteilungsfunktion
Anzahl der nach Maximum-Likelihood geschätzten Parameter, um F0 zu
präzisieren
hypothetische Klassenwahrscheinlichkeiten
H 0 : FX = F0
k
(h j − np j ) 2
j =1
np j
T =∑
k
h 2j
j =1
np j
=∑
− n
Approximationsbedingung: n ⋅ p j ≥ 5 für alle j = 1,..., k .
30
K * ≈ ( χ k2−1− r ;1−α ; ∞)
III. Schließende Statistik
Test auf Normalverteilung mittels Schiefe und Exzess
⎧
⎪ T1 = Sch
⎨
⎪⎩ T2 = Exz + 3
H 0 : X ist normalverteilt
K1* = (−∞ ; − sn;1−α 2 ) ∪ ( sn;1−α 2 ; ∞)
K 2* = [0; wn;α ) ∪ ( wn;1−α ; ∞)
2
2
H0 ist zum Signifikanzniveau 1 − (1 − α ) 2 ≈ 2α abzulehnen, wenn T1 ∈ K1* oder
T2 ∈ K 2* . Die Quantile sn;1−α , wn ;1−α und wn ;α sind in IV.12. tabelliert.
2
2
2
3.4. Tests auf Unabhängigkeit
X, Y
( x1 , y1 ),...,( xn , yn )
zwei verbundene Merkmale
Beobachtungspaare zu X, Y
Test auf Unabhängigkeit zweier normalverteilter Merkmale
(X,Y)
ρ XY
rxy
normalverteiltes Merkmalspaar
unbekannter Korrelationskoeffizient
empirischer Korrelationskoeffizient
H 0 : ρ XY = 0
T=
rxy ⋅ n − 2
K * = (−∞; −tn − 2;1−α 2 ) ∪ (tn − 2;1−α 2 ; ∞)
1− r
2
xy
Oder: H0 ist zum Signifkanzniveau α zu verwerfen, wenn |rxy| die kritische Schranke
in IV.11. übersteigt.
χ²-Unabhängigkeitstest
Die Stichprobe liege in Form einer Kontingenztafel mit k Zeilen und m Spalten vor.
H 0 : X , Y unabhängig
T = χ 2 (siehe II.2.2.)
K * ≈ ( χ (2k −1)( m −1);1−α ; ∞)
Approximationsbedingung: eij ≥ 5 für alle i = 1,..., k ; j = 1,..., m .
3.5. Zwei-Stichproben-Vergleiche für verbundene Merkmale
X, Y
( x1 , y1 ),...,( xn , yn )
zwei verbundene Merkmale
Beobachtungspaare zu X, Y
31
III. Schließende Statistik
t-Test für normalverteilte Paardifferenzen
D=X-Y
d i = xi − yi
Differenz der Merkmale, als normalverteilt vorausgesetzt
Differenzen der Beobachtungspaare
H 0 : EX = EY
T=
1 n
∑ di
n i =1
2
1
∑ di2 − n ( ∑ di )
n ⋅ (n − 1)
K * = (−∞; −tn −1;1−α 2 ) ∪ (tn −1;1−α 2 ; ∞)
Vorzeichentest
X, Y
Z n+
bn ;1−α 2
zwei verbundene, stetig verteilte Merkmale
Anzahl der i, für die xi − yi > 0
1
Quantil der ( n, ) -Binomialverteilung (in IV.10. vertafelt)
2
H 0 : Med ( X − Y ) = 0
T = Z n+
K * = [0; n − bn ;1−α 2 ] ∪ [bn ;1−α 2 ; n]
Für n > 25 kann man hier das Quantil der Binomialverteilung näherungsweise durch
n + n ⋅ z1−α 2
.
das der Normalverteilung ersetzen: bn ;1−α 2 ≈
2
Vorzeichen-Rang-Test von WILCOXON
X, Y
Ri
zwei verbundene, stetig verteilte Merkmale
Rangzahl von xi − yi
(i = 1,..., n )
Rn+
Summe der Ri , für die xi − yi > 0
H 0 : Med ( X − Y ) = 0
T=
n(n + 1)
4
n(n + 1)(2n + 1)
24
Rn+ −
K * ≈ ( z1−α 2 ; ∞)
Approximationsbedingung: n > 20 .
3.6. Zwei-Stichprobenvergleiche für unabhängige Merkmale
X, Y
x1 , x2 ,..., xnx
unabhängige Merkmale
Stichprobe zu X vom Umfang nx
y1 , y2 ,..., yn y
Stichprobe zu Y vom Umfang ny
32
III. Schließende Statistik
Doppelter t-Test
X ∼ N ( μ x ;σ x2 )
Y ∼ N ( μ y ;σ )
2
y
normalverteiltes Merkmal ⎫⎪
2
2
⎬ mit unbekanntem σ x = σ y
normalverteiltes Merkmal ⎪⎭
H0 : μx = μ y
T=
( x − y ) ⋅ nx ⋅ ny ⋅ (nx + n y − 2)
K * = (−∞ ; −tnx + ny − 2;1−α 2 ) ∪ (tnx + ny − 2;1−α 2 ; ∞)
(nx + n y )[(nx − 1) s + (n y − 1) s ]
2
x
2
y
einseitige Fragestellungen:
H 0 : μ x ≤ μ y mit K * = (+tnx + ny − 2;1−α ; +∞)
H 0 : μ x ≥ μ y mit K * = (−∞ ; −tnx + ny − 2;1−α )
BEHRENS-FISHER-Problem
X ∼ N ( μ x ;σ x2 ) normalvert. Merkmal ⎫⎪ 2 2
2
2
⎬ σ x ,σ y unbekannt, möglicherweise σ x ≠ σ y
2
Y ∼ N ( μ y ;σ y ) normalvert. Merkmal ⎪⎭
H0 : μx = μ y
x−y
T=
s
2
x
nx
+
s
mit
K * ≈ (−∞ ; −t f ;1−α 2 ) ∪ (t f ;1−α 2 ; ∞)
2
y
ny
⎧ ⎡ (n − 1)( s x2 + s 2y )2 ⎤
⎪ent ⎢
⎥ für n = n x = n y
f = ⎨ ⎣ ( s x2 )2 + ( s 2y ) 2 ⎦
⎪
für n x ≠ n y
⎩ min( n x , n y ) − 1
ent[z] bezeichnet die größte ganze Zahl, die nicht größer als z ist.
Approximationsbedingung: nx ≥ 6 und n y ≥ 6 .
Einseitige Fragestellungen analog zum doppelten t-Test.
F-Test
X ∼ N ( μ x ;σ x2 ) normalverteiltes Merkmal ⎫⎪
⎬
Y ∼ N ( μ y ;σ y2 ) normalverteiltes Merkmal ⎪⎭
H 0 : σ x2 = σ y2
T=
sx2
s y2
μ x , μ y unbekannt
K * = (0; Fn −1;n
x
33
α
y −1;
2
) ∪ ( Fn
x −1; n y −1;1−
α
; ∞)
2
III. Schließende Statistik
einseitige Fragestellungen:
H 0 : σ x2 ≤ σ y2 mit K * = ( Fnx −1; ny −1;1−α ; ∞)
H 0 : σ x2 ≥ σ y2 mit K * = (0; Fnx −1; ny −1;α )
U-Test von WILCOXON-MANN-WHITNEY
X,Y
Rx
stetig verteilte Merkmale mit den Verteilungen PX bzw. PY
Summe der Rangzahlen der x-Werte in der gemeinsamen Beobachtungsreihe
aller x- und y-Werte
H 0 : PX = PY
T=
nx (nx + n y + 1)
2
nx n y (nx + n y + 1)
12
Rx −
K * ≈ (−∞; − z1−α 2 ) ∪ ( z1−α 2 ; ∞)
Approximationsbedingung: nx ≥ 4 und n y ≥ 4 und nx + n y ≥ 20 .
4.
Einfache lineare Regression
Modell der einfachen linearen Regression:
Yi = a + b ⋅ xi + ε i
(i = 1, 2,..., n )
Dabei sind
yi
xi
εi
i-ter Beobachtungswert zum Regressanden (= Zielgröße)
i-ter Beobachtungswert zum Regressor (= Einflussgröße)
zufälliger Fehler (= Residuum)
Voraussetzung:
a
b
σ2
y = a + b⋅ x
E (ε i ) = 0 und Var (ε i ) = σ 2 für alle i = 1,..., n.
Die ε i sind paarweise unkorreliert.
Regressionskonstante
Regressionskoeffizient
Reststreuung
Regressionsgerade ( x ∈
)
34
III. Schließende Statistik
4.1. Schätzungen nach der Methode der kleinsten Quadrate
MKQ-Schätzer für b, a bzw. σ²:
n
bˆ =
∑ ( x − x )( y − y )
i
i =1
i
n
∑ (x − x )
i =1
= rxy ⋅
2
sy
sx
i
aˆ = y − bˆ ⋅ x
1 n
ˆ
( yi − yˆi ) 2 mit yˆi = aˆ + bx
s =
∑
i
n − 2 i =1
2
R
sR2
yˆ i
Stichprobenreststreuung
erwarteter y-Wert zu xi
y = aˆ + bˆ ⋅ x
Es gilt:
aˆ, bˆ und sR2 sind erwartungstreu für a , b bzw. σ 2 .
4.2. Konfidenzband für die Regressionsgerade
Zusätzliche Voraussetzung: ε i ∼ N (0;σ 2 ) für i = 1,..., n .
KI a +bx = (aˆ + bˆ ⋅ x − s yˆ ⋅ tn − 2;1−α 2 ; aˆ + bˆ ⋅ x + s yˆ ⋅ tn − 2;1−α 2 )
mit
Konfidenzschätzung für die
Regressionsgerade y = a + bx
⎛ 1 ( x − x )2 ⎞
.
s 2yˆ = sR2 ⋅ ⎜ +
2 ⎟
⎝ n ( n − 1) ⋅ s x ⎠
4.3. Konfidenzintervall für einen Zwischenwert
Zusätzliche Voraussetzung: ε i ∼ N (0;σ 2 ) für i = 1,..., n .
KI a +bx0 = (aˆ + bˆ ⋅ x0 − s yˆ0 ⋅ tn − 2;1−α 2 ; aˆ + bˆ ⋅ x0 + s yˆ0 ⋅ tn − 2;1−α 2 ) Konfidenzschätzung für den
Zwischenwert y0 = a + bx0
mit
⎛ 1 ( x0 − x ) 2 ⎞
.
s = s ⋅ ⎜1 + +
2 ⎟
⎝ n ( n − 1) ⋅ s x ⎠
2
yˆ 0
2
R
35
III. Schließende Statistik
y
Regressiongerade
95% Mittelwert
95% Einzelwert
x
4.4. Prüfung des Regressionskoeffizienten
Zusätzliche Voraussetzung: ε i ∼ N (0;σ 2 ) für i = 1,..., n .
H0 : b = b0
mit
T=
bˆ −b0
sb
K* = (−∞ ; −tn−2;1−α 2 ) ∪(tn−2;1−α 2 ; ∞)
sR2
s =
.
( n − 1) ⋅ s x2
2
b
Beim Test auf Anstieg null ( b0 = 0 ) gilt für die Testgröße T =
rxy n − 2
1 − rxy2
(vgl.III.3.4.).
4.5. Prüfung der Regressionskonstante
Zusätzliche Voraussetzung: ε i ∼ N (0;σ 2 ) für i = 1,..., n .
H0 : a = a0
mit
5.
T=
aˆ − a0
sa
K* = (−∞ ; −tn−2;1−α 2 ) ∪(tn−2;1−α 2 ; ∞)
⎛1
⎞
x2
.
s = s ⋅⎜ +
2 ⎟
⎝ n ( n − 1) ⋅ s x ⎠
2
a
2
R
Multivariate lineare Regression
Modell der multivariaten linearen Regression:
Yi = b0 + b1 ⋅ xi1 + b2 ⋅ xi 2 + ... + bm ⋅ xim + εi ( i = 1,…, n ; n > m + 1)
36
III. Schließende Statistik
yi
i-ter Beobachtungswert zum Regressanden
( j)
i
x
εi
i-ter Beobachtungswert zum Regressor j ( j = 1,… , m )
zufälliger Fehler
Voraussetzung:
E (ε i ) = 0 und Var (ε i ) = σ 2 für alle i = 1,..., n.
b0 ,… , bm
Regressionskoeffizienten
σ
Reststreuung
2
Modell in Matrixschreibweise:
y = X ⋅b +ε
mit
⎛ 1 x11
⎛ y1 ⎞
⎛ b0 ⎞
⎛ ε1 ⎞
⎜
⎜ ⎟
⎜ ⎟
⎜ ⎟
ε2 ⎟
y2 ⎟
b1 ⎟
1 x21
⎜
⎜
⎜
; b=
; ε=
; X =⎜
y=
⎜
⎜ ⎟
⎜ ⎟
⎜ ⎟
⎜⎜
⎜ ⎟
⎜ ⎟
⎜ ⎟
⎝ yn ⎠
⎝ bm ⎠
⎝εn ⎠
⎝ 1 xn1
x1m ⎞
⎟
x2 m ⎟
.
⎟
⎟
xnm ⎟⎠
5.1. Schätzung der Regressionskoeffizienten
Voraussetzung: X hat vollen Rang m +1.
⎛ bˆ0 ⎞
⎜ ⎟
⎜ bˆ ⎟
bˆ = ⎜ 1 ⎟
⎜ ⎟
⎜ bˆ ⎟
⎝ m⎠
Punktschätzung für b nach der Methode der kleinsten Quadrate
b̂ ist Lösung des linearen Gleichungssystems
T
T
( X X ) ⋅ bˆ = X ⋅ y .
sR2
Stichprobenreststreuung, sie berechnet sich zu
sR2 =
Es gilt
n
1
∑ ( yi − yˆi )2
n − m − 1 i =1
y = bˆ0 + bˆ1 ⋅ x1 + ... + bˆm ⋅ xm
mit yˆ i = bˆ0 + bˆ1 ⋅ xi1 + ... + bˆm ⋅ xim .
mit y =
37
1 n
1 n
und
y
x
=
∑ i
∑ xij .
j
n i =1
n i =1
III. Schließende Statistik
5.2. Test auf linearen Zusammenhang
Zusätzliche Voraussetzung: Die ε i sind normalverteilt und paarweise unkorreliert.
Varianztabelle
Streuungsursache
Quadratsummen
Freiheitsgrade
n
SQE = ∑ ( yˆ i − y ) 2
m
Abweichung von
der Geraden
SQR = ∑ ( yi − yˆ i ) 2
n-1-m
Abweichung
vom Mittelwert
SQT = ∑ ( yi − y ) 2
Gerade
i =1
n
i =1
Varianzen
SQE
m
SQR
MQR =
n −1− m
MQE =
Testgröße
T=
MQE
MQR
n
n-1
i =1
Test
H 0 : b1 = b2 = … = bm = 0
Varianzzerlegung:
T=
MQE
MQR
K * = ( Fm ; n −1− m ;1−α ; ∞)
SQT = SQE + SQR
5.3. Multiple Korrelation
B=
SQE
SQT
ry ; x1 ,…, xm = B
lineares multiples Bestimmtheitsmaß
multipler Korrelationskoeffizient
Für die einfache Korrelation (m = 1; vgl. II.2.1.) gilt
6.
B = rxy2 und rxy = sgn(bˆ) ⋅ B .
Nichtlineare Regression
6.1. Polynomiale Regression
Modell der polynomialen Regression:
Yi = b0 + b1 ⋅ xi + b2 ⋅ xi2 + ... + bm ⋅ xim + εi ( i = 1,…, n ; n > m + 1)
Die MKQ-Schätzungen für die Regressionskoeffizienten sind Lösungen des linearen
Gleichungssystems
38
III. Schließende Statistik
∑y
∑y x
i
= bˆ0 ⋅ ∑1 + bˆ1 ⋅ ∑ xi
i i
= bˆ0 ⋅ ∑ xi + bˆ1 ⋅ ∑ xi2 + … + bˆm ⋅ ∑ xim +1
∑y x
= bˆ0 ⋅ ∑ xim + bˆ1 ⋅ ∑ xim +1 + … + bˆm ⋅ ∑ xim + m
m
i i
+ … + bˆm ⋅ ∑ xim
.
6.2. Curvilineare Regression
Manche nichtlineare Funktionen lassen sich durch eine geeignete Transformation in
einen linearen Ansatz umwandeln. Hier eine Auswahl:
Funktion
Grafische Darstellung
y = a ⋅ xb
b>0
b<0
log y = log a + b ⋅ log x
Potenzfunktion
b>0
y = a ⋅ eb ⋅x
Exponentialfunktion
ln y = ln a + b ⋅ x
a
1
y=
a + b⋅ x
b<0
1
a
1
y=
a + b ⋅ e− x
logistische Funktion
a > 0, b > 0
Transformierte Funktion
1
= a + b ⋅ e− x
y
1
a+b
1
a
1
= a + b⋅ x
y
Hyperbelfunktion
a > 0, b > 0
y=
a⋅x
b+ x
a
1 1 b 1
= + ⋅
y a a x
TÖRNQUISTfunktion
a > 0, b > 0
39
III. Schließende Statistik
7.
Varianzanalyse (Modell I, einfache Klassifikation)
X 1 , X 2 ,… , X k
xi1 , xi 2 ,..., xini
k Gruppen (unabhängige Merkmale) mit X i ∼ N ( μi ;σ 2 )
Stichprobe vom Umfang ni zum Merkmal X i
n = n1 + ... + nk
Gesamtstichprobenumfang
ni
xi ⋅ =
1
ni
x⋅⋅ =
1 k ni
∑∑ xij
n i =1 j =1
∑x
j =1
ij
Gruppenmittelwerte ( i = 1,..., k )
Gesamtmittelwert
Varianztabelle
Streuungsursache
zwischen
den Gruppen
Quadratsummen
Freiheitsgrade
k
SQZ = ∑ ni ⋅ ( xi ⋅ − x⋅⋅ ) 2
Varianzen
k-1
MQZ =
SQZ
k −1
n-k
MQI =
SQI
n−k
i =1
k
ni
innerhalb der
Gruppen
SQI = ∑∑ ( xij − xi ⋅ ) 2
total
SQT = ∑∑ ( xij − x⋅⋅ ) 2
i =1 j =1
k
Testgröße
T=
MQZ
MQI
ni
n-1
i =1 j =1
Test (multipler Mittelwertvergleich)
H 0 : μ1 = μ 2 = ... = μ k
T=
MQZ
MQI
40
K * = ( Fk −1;n − k ;1−α ; ∞)
IV. Tafeln
IV. Tafeln
1.
Griechisches Alphabet
Buchstabe
Α
Β
Γ
Δ
Ε
Ζ
Η
Θ
2.
α
β
γ
δ
ε
ζ
η
θ(ϑ)
Name
Alpha
Beta
Gamma
Delta
Epsilon
Zeta
Eta
Theta
Buchstabe
Ι
Κ
Λ
Μ
Ν
Ξ
Ο
Π
ι
κ
λ
μ
ν
ξ
ο
π
Name
Jota
Kappa
Lambda
My
Ny
Xi
Omikron
Pi
Buchstabe
Ρ
Σ
Τ
Υ
Φ
Χ
Ψ
Ω
ρ
σ ς
τ
υ
φ
χ
ψ
ω
Lineare Interpolation
Liegt x zwischen x1 und x2 , so setzt man
x1
f ( x1 )
x
?
x2
3.
f ( x ) ≈ f ( x1 ) +
f ( x2 )
x − x1
⋅ ( f ( x2 ) − f ( x1 )) .
x2 − x1
Quantile der standardisierten Normalverteilung
α
0,9000
0,9500
0,9750
0,9900
0,9950
0,9990
0,9995
zα
1,282
1,645
1,960
2,326
2,576
3,090
3,290
α
-3
0
Die Tafeln 3 bis 11 wurden mittels Excel 97 erstellt.
41
zα
3
Name
Rho
Sigma
Tau
Ypsilon
Phi
Chi
Psi
Omega
IV. Tafeln
4.
Zufallszahlen
9248
6683
8753
9786
8059
7988
0110
3250
3048
2565
3906
6913
5670
6922
1849
8029
5757
1709
7815
4917
6127
1864
0088
2557
4442
3425
8959
8015
3918
0777
5590
2486
5497
1150
7023
8794
0953
1506
5410
1375
9464
7196
7203
2147
4749
2516
1371
7104
9779
6938
0642
8225
6529
4350
4937
6857
2927
2873
6847
0092
8365
0393
6623
6319
8573
8963
5638
9141
1426
2623
6831
7519
9567
5500
0704
7579
7321
0299
2341
7253
4546
9935
4193
7322
7712
3356
9706
8789
8989
8066
0447
6302
3800
9176
1334
4905
4880
3613
4040
8673
7121
1826
8309
9293
3961
0108
6397
0842
1079
8985
8361
3191
7323
9668
0036
6335
1623
2074
6569
2179
7877
0624
4042
3909
9799
7893
3912
6535
9393
5209
8088
4549
6334
4541
1722
3191
5640
9632
1014
8124
2926
1301
2676
5698
0368
2522
2582
6383
8467
6529
4616
1510
4948
0806
0626
6271
0625
2885
4447
2863
2787
8660
2026
0762
8302
7045
7157
7007
0787
0538
1849
0695
5278
6118
6406
8588
7130
9184
1042
4918
9120
0462
3382
0556
6591
6406
2698
0562
6422
2033
4214
6693
3075
1605
6273
1546
3646
7285
9308
3973
8511
5059
1904
9749
8890
5072
0955
6434
8335
9299
5989
0119
8916
9800
5730
8685
2581
5014
3606
7266
2097
9165
3868
3755
4308
8037
1007
6272
1281
1171
1088
6958
3441
6860
0401
5451
3201
1734
3706
9988
0542
4666
0280
3256
5123
7424
1257
0788
7856
8929
7196
8974
9972
0679
2461
6589
4395
5149
3576
2621
8713
4482
6531
6309
1270
0693
3618
4723
8407
5393
6579
5880
1217
3725
4764
5912
8084
7622
5763
1069
6129
5454
4125
5199
3663
4480
7822
8274
2821
3798
4387
0751
5114
1759
7384
5339
6033
5130
0718
5582
5111
1765
9095
6784
2076
6496
7630
2016
3945
2489
2728
1182
7644
1253
7357
8473
6644
5697
6310
2703
1252
9423
3393
9035
7861
1825
6241
7726
8318
0821
2731
6826
2742
4832
2973
4741
9102
5664
7797
5790
6874
3248
0704
8277
4390
0885
5692
4746
3765
3470
42
IV. Tafeln
5.
z
0,0
0,1
0,2
0,3
0,4
0,5
0,6
0,7
0,8
0,9
1,0
1,1
1,2
1,3
1,4
1,5
1,6
1,7
1,8
1,9
2,0
2,1
2,2
2,3
2,4
2,5
2,6
2,7
2,8
2,9
Verteilungsfunktion der Standardnormalverteilung
0,00
0,01
0,02
0,03
0,04
0,05
0,06
0,07
0,08
0,09
0,500000
0,539828
0,579260
0,617911
0,655422
0,691462
0,725747
0,758036
0,788145
0,815940
0,841345
0,864334
0,884930
0,903199
0,919243
0,933193
0,945201
0,955435
0,964070
0,971284
0,977250
0,982136
0,986097
0,989276
0,991802
0,993790
0,995339
0,996533
0,997445
0,998134
0,503989
0,543795
0,583166
0,621719
0,659097
0,694974
0,729069
0,761148
0,791030
0,818589
0,843752
0,866500
0,886860
0,904902
0,920730
0,934478
0,946301
0,956367
0,964852
0,971933
0,977784
0,982571
0,986447
0,989556
0,992024
0,993963
0,995473
0,996636
0,997523
0,998193
0,507978
0,547758
0,587064
0,625516
0,662757
0,698468
0,732371
0,764238
0,793892
0,821214
0,846136
0,868643
0,888767
0,906582
0,922196
0,935744
0,947384
0,957284
0,965621
0,972571
0,978308
0,982997
0,986791
0,989830
0,992240
0,994132
0,995603
0,996736
0,997599
0,998250
0,511967
0,551717
0,590954
0,629300
0,666402
0,701944
0,735653
0,767305
0,796731
0,823814
0,848495
0,870762
0,890651
0,908241
0,923641
0,936992
0,948449
0,958185
0,966375
0,973197
0,978822
0,983414
0,987126
0,990097
0,992451
0,994297
0,995731
0,996833
0,997673
0,998305
0,515953
0,555670
0,594835
0,633072
0,670031
0,705402
0,738914
0,770350
0,799546
0,826391
0,850830
0,872857
0,892512
0,909877
0,925066
0,938220
0,949497
0,959071
0,967116
0,973810
0,979325
0,983823
0,987455
0,990358
0,992656
0,994457
0,995855
0,996928
0,997744
0,998359
0,519939
0,559618
0,598706
0,636831
0,673645
0,708840
0,742154
0,773373
0,802338
0,828944
0,853141
0,874928
0,894350
0,911492
0,926471
0,939429
0,950529
0,959941
0,967843
0,974412
0,979818
0,984222
0,987776
0,990613
0,992857
0,994614
0,995975
0,997020
0,997814
0,998411
0,523922
0,563559
0,602568
0,640576
0,677242
0,712260
0,745373
0,776373
0,805106
0,831472
0,855428
0,876976
0,896165
0,913085
0,927855
0,940620
0,951543
0,960796
0,968557
0,975002
0,980301
0,984614
0,988089
0,990863
0,993053
0,994766
0,996093
0,997110
0,997882
0,998462
0,527903
0,567495
0,606420
0,644309
0,680822
0,715661
0,748571
0,779350
0,807850
0,833977
0,857690
0,878999
0,897958
0,914656
0,929219
0,941792
0,952540
0,961636
0,969258
0,975581
0,980774
0,984997
0,988396
0,991106
0,993244
0,994915
0,996207
0,997197
0,997948
0,998511
0,531881
0,571424
0,610261
0,648027
0,684386
0,719043
0,751748
0,782305
0,810570
0,836457
0,859929
0,881000
0,899727
0,916207
0,930563
0,942947
0,953521
0,962462
0,969946
0,976148
0,981237
0,985371
0,988696
0,991344
0,993431
0,995060
0,996319
0,997282
0,998012
0,998559
0,535856
0,575345
0,614092
0,651732
0,687933
0,722405
0,754903
0,785236
0,813267
0,838913
0,862143
0,882977
0,901475
0,917736
0,931888
0,944083
0,954486
0,963273
0,970621
0,976705
0,981691
0,985738
0,988989
0,991576
0,993613
0,995201
0,996427
0,997365
0,998074
0,998605
0,0
0,1
0,2
0,3
0,4
0,5
0,6
0,7
0,8
0,9
3,0 0,998650 0,999032 0,999313 0,999517 0,999663 0,999767 0,999841 0,999892 0,999928 0,999952
Φ( z )
-4
-2
0
43
z
2
4
IV. Tafeln
6.
Quantile der t-Verteilung mit f Freiheitsgraden
α
0,95
6,314
2,920
2,353
2,132
2,015
1,943
1,895
1,860
1,833
1,812
1,796
1,782
1,771
1,761
1,753
1,746
1,740
1,734
1,729
1,725
1,721
1,717
1,714
1,711
1,708
1,706
1,703
1,701
1,699
1,697
1,684
1,676
1,671
1,664
1,660
1,653
1,650
1,648
1,645
f
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
40
50
60
80
100
200
300
500
∞
0,975
12,706
4,303
3,182
2,776
2,571
2,447
2,365
2,306
2,262
2,228
2,201
2,179
2,160
2,145
2,131
2,120
2,110
2,101
2,093
2,086
2,080
2,074
2,069
2,064
2,060
2,056
2,052
2,048
2,045
2,042
2,021
2,009
2,000
1,990
1,984
1,972
1,968
1,965
1,960
0,99
31,821
6,965
4,541
3,747
3,365
3,143
2,998
2,896
2,821
2,764
2,718
2,681
2,650
2,624
2,602
2,583
2,567
2,552
2,539
2,528
2,518
2,508
2,500
2,492
2,485
2,479
2,473
2,467
2,462
2,457
2,423
2,403
2,390
2,374
2,364
2,345
2,339
2,334
2,326
0,995
63,656
9,925
5,841
4,604
4,032
3,707
3,499
3,355
3,250
3,169
3,106
3,055
3,012
2,977
2,947
2,921
2,898
2,878
2,861
2,845
2,831
2,819
2,807
2,797
2,787
2,779
2,771
2,763
2,756
2,750
2,704
2,678
2,660
2,639
2,626
2,601
2,592
2,586
2,576
0,9995
636,578
31,600
12,924
8,610
6,869
5,959
5,408
5,041
4,781
4,587
4,437
4,318
4,221
4,140
4,073
4,015
3,965
3,922
3,883
3,850
3,819
3,792
3,768
3,745
3,725
3,707
3,689
3,674
3,660
3,646
3,551
3,496
3,460
3,416
3,390
3,340
3,323
3,310
3,290
α
-5
0
44
t f ;α
5
IV. Tafeln
7.
Quantile der χ²–Verteilung mit f Freiheitsgraden
α
f
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
0,005
0,010
0,072
0,207
0,412
0,676
0,989
1,34
1,73
2,16
2,60
3,07
3,57
4,07
4,60
5,14
5,70
6,26
6,84
7,43
8,03
8,64
9,26
9,89
10,5
11,2
11,8
12,5
13,1
13,8
14,5
15,1
15,8
16,5
17,2
17,9
18,6
19,3
20,0
20,7
21,4
22,1
22,9
23,6
24,3
25,0
25,8
26,5
27,2
28,0
0,01
0,020
0,115
0,297
0,554
0,872
1,24
1,65
2,09
2,56
3,05
3,57
4,11
4,66
5,23
5,81
6,41
7,01
7,63
8,26
8,90
9,54
10,2
10,9
11,5
12,2
12,9
13,6
14,3
15,0
15,7
16,4
17,1
17,8
18,5
19,2
20,0
20,7
21,4
22,2
22,9
23,7
24,4
25,1
25,9
26,7
27,4
28,2
28,9
29,7
0,025
0,001
0,051
0,216
0,484
0,831
1,24
1,69
2,18
2,70
3,25
3,82
4,40
5,01
5,63
6,26
6,91
7,56
8,23
8,91
9,59
10,3
11,0
11,7
12,4
13,1
13,8
14,6
15,3
16,0
16,8
17,5
18,3
19,0
19,8
20,6
21,3
22,1
22,9
23,7
24,4
25,2
26,0
26,8
27,6
28,4
29,2
30,0
30,8
31,6
32,4
0,05
0,004
0,103
0,352
0,711
1,15
1,64
2,17
2,73
3,33
3,94
4,57
5,23
5,89
6,57
7,26
7,96
8,67
9,39
10,1
10,9
11,6
12,3
13,1
13,8
14,6
15,4
16,2
16,9
17,7
18,5
19,3
20,1
20,9
21,7
22,5
23,3
24,1
24,9
25,7
26,5
27,3
28,1
29,0
29,8
30,6
31,4
32,3
33,1
33,9
34,8
0,5
0,455
1,39
2,37
3,36
4,35
5,35
6,35
7,34
8,34
9,34
10,3
11,3
12,3
13,3
14,3
15,3
16,3
17,3
18,3
19,3
20,3
21,3
22,3
23,3
24,3
25,3
26,3
27,3
28,3
29,3
30,3
31,3
32,3
33,3
34,3
35,3
36,3
37,3
38,3
39,3
40,3
41,3
42,3
43,3
44,3
45,3
46,3
47,3
48,3
49,3
α
χ 2f ;α
45
0,95
3,84
5,99
7,81
9,49
11,1
12,6
14,1
15,5
16,9
18,3
19,7
21,0
22,4
23,7
25,0
26,3
27,6
28,9
30,1
31,4
32,7
33,9
35,2
36,4
37,7
38,9
40,1
41,3
42,6
43,8
45,0
46,2
47,4
48,6
49,8
51,0
52,2
53,4
54,6
55,8
56,9
58,1
59,3
60,5
61,7
62,8
64,0
65,2
66,3
67,5
0,975
5,02
7,38
9,35
11,1
12,8
14,4
16,0
17,5
19,0
20,5
21,9
23,3
24,7
26,1
27,5
28,8
30,2
31,5
32,9
34,2
35,5
36,8
38,1
39,4
40,6
41,9
43,2
44,5
45,7
47,0
48,2
49,5
50,7
52,0
53,2
54,4
55,7
56,9
58,1
59,3
60,6
61,8
63,0
64,2
65,4
66,6
67,8
69,0
70,2
71,4
0,99
6,63
9,21
11,3
13,3
15,1
16,8
18,5
20,1
21,7
23,2
24,7
26,2
27,7
29,1
30,6
32,0
33,4
34,8
36,2
37,6
38,9
40,3
41,6
43,0
44,3
45,6
47,0
48,3
49,6
50,9
52,2
53,5
54,8
56,1
57,3
58,6
59,9
61,2
62,4
63,7
64,9
66,2
67,5
68,7
70,0
71,2
72,4
73,7
74,9
76,2
0,995
7,88
10,6
12,8
14,9
16,7
18,5
20,3
22,0
23,6
25,2
26,8
28,3
29,8
31,3
32,8
34,3
35,7
37,2
38,6
40,0
41,4
42,8
44,2
45,6
46,9
48,3
49,6
51,0
52,3
53,7
55,0
56,3
57,6
59,0
60,3
61,6
62,9
64,2
65,5
66,8
68,1
69,3
70,6
71,9
73,2
74,4
75,7
77,0
78,2
79,5
IV. Tafeln
α
f
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
0,005
28,7
29,5
30,2
31,0
31,7
32,5
33,2
34,0
34,8
35,5
36,3
37,1
37,8
38,6
39,4
40,2
40,9
41,7
42,5
43,3
44,1
44,8
45,6
46,4
47,2
48,0
48,8
49,6
50,4
51,2
52,0
52,8
53,6
54,4
55,2
56,0
56,8
57,6
58,4
59,2
60,0
60,8
61,6
62,4
63,2
64,1
64,9
65,7
66,5
67,3
0,01
30,5
31,2
32,0
32,8
33,6
34,3
35,1
35,9
36,7
37,5
38,3
39,1
39,9
40,6
41,4
42,2
43,0
43,8
44,6
45,4
46,2
47,1
47,9
48,7
49,5
50,3
51,1
51,9
52,7
53,5
54,4
55,2
56,0
56,8
57,6
58,5
59,3
60,1
60,9
61,8
62,6
63,4
64,2
65,1
65,9
66,7
67,6
68,4
69,2
70,1
0,025
33,2
34,0
34,8
35,6
36,4
37,2
38,0
38,8
39,7
40,5
41,3
42,1
43,0
43,8
44,6
45,4
46,3
47,1
47,9
48,8
49,6
50,4
51,3
52,1
52,9
53,8
54,6
55,5
56,3
57,2
58,0
58,8
59,7
60,5
61,4
62,2
63,1
63,9
64,8
65,6
66,5
67,4
68,2
69,1
69,9
70,8
71,6
72,5
73,4
74,2
0,05
35,6
36,4
37,3
38,1
39,0
39,8
40,6
41,5
42,3
43,2
44,0
44,9
45,7
46,6
47,4
48,3
49,2
50,0
50,9
51,7
52,6
53,5
54,3
55,2
56,1
56,9
57,8
58,7
59,5
60,4
61,3
62,1
63,0
63,9
64,7
65,6
66,5
67,4
68,2
69,1
70,0
70,9
71,8
72,6
73,5
74,4
75,3
76,2
77,0
77,9
0,5
50,3
51,3
52,3
53,3
54,3
55,3
56,3
57,3
58,3
59,3
60,3
61,3
62,3
63,3
64,3
65,3
66,3
67,3
68,3
69,3
70,3
71,3
72,3
73,3
74,3
75,3
76,3
77,3
78,3
79,3
80,3
81,3
82,3
83,3
84,3
85,3
86,3
87,3
88,3
89,3
90,3
91,3
92,3
93,3
94,3
95,3
96,3
97,3
98,3
99,3
Für f > 100 ist folgende Näherung geeignet:
46
0,95
68,7
69,8
71,0
72,2
73,3
74,5
75,6
76,8
77,9
79,1
80,2
81,4
82,5
83,7
84,8
86,0
87,1
88,3
89,4
90,5
91,7
92,8
93,9
95,1
96,2
97,4
98,5
99,6
100,7
101,9
103,0
104,1
105,3
106,4
107,5
108,6
109,8
110,9
112,0
113,1
114,3
115,4
116,5
117,6
118,8
119,9
121,0
122,1
123,2
124,3
χ 2f ;α ≈
1
2
0,975
72,6
73,8
75,0
76,2
77,4
78,6
79,8
80,9
82,1
83,3
84,5
85,7
86,8
88,0
89,2
90,3
91,5
92,7
93,9
95,0
96,2
97,4
98,5
99,7
100,8
102,0
103,2
104,3
105,5
106,6
107,8
108,9
110,1
111,2
112,4
113,5
114,7
115,8
117,0
118,1
119,3
120,4
121,6
122,7
123,9
125,0
126,1
127,3
128,4
129,6
(
0,99
77,4
78,6
79,8
81,1
82,3
83,5
84,7
86,0
87,2
88,4
89,6
90,8
92,0
93,2
94,4
95,6
96,8
98,0
99,2
100,4
101,6
102,8
104,0
105,2
106,4
107,6
108,8
110,0
111,1
112,3
113,5
114,7
115,9
117,1
118,2
119,4
120,6
121,8
122,9
124,1
125,3
126,5
127,6
128,8
130,0
131,1
132,3
133,5
134,6
135,8
2 ⋅ f − 1 + zα
0,995
80,7
82,0
83,3
84,5
85,7
87,0
88,2
89,5
90,7
92,0
93,2
94,4
95,6
96,9
98,1
99,3
100,6
101,8
103,0
104,2
105,4
106,6
107,9
109,1
110,3
111,5
112,7
113,9
115,1
116,3
117,5
118,7
119,9
121,1
122,3
123,5
124,7
125,9
127,1
128,3
129,5
130,7
131,9
133,1
134,2
135,4
136,6
137,8
139,0
140,2
)
2
.
IV. Tafeln
Quantile der F-Verteilung für α = 0,95
8.
fN
1
2
3
4
5
6
7
8
9
10
12
14
16
18
20
30
40
161
199
216
225
230
234
237
239
241
242
244
245
246
247
248
250
251
252
253
18,5
19,0
19,2
19,3
19,3
19,3
19,4
19,4
19,4
19,4
19,4
19,4
19,4
19,4
19,5
19,5
19,5
19,5
19,5
10,1
9,55
9,28
9,12
9,01
8,94
8,89
8,85
8,81
8,79
8,74
8,71
8,69
8,67
8,66
8,62
8,59
8,58
8,55
7,71
6,94
6,59
6,39
6,26
6,16
6,09
6,04
6,00
5,96
5,91
5,87
5,84
5,82
5,80
5,75
5,72
5,70
5,66
6,61
5,79
5,41
5,19
5,05
4,95
4,88
4,82
4,77
4,74
4,68
4,64
4,60
4,58
4,56
4,50
4,46
4,44
4,41
5,99
5,14
4,76
4,53
4,39
4,28
4,21
4,15
4,10
4,06
4,00
3,96
3,92
3,90
3,87
3,81
3,77
3,75
3,71
5,59
4,74
4,35
4,12
3,97
3,87
3,79
3,73
3,68
3,64
3,57
3,53
3,49
3,47
3,44
3,38
3,34
3,32
3,27
5,32
4,46
4,07
3,84
3,69
3,58
3,50
3,44
3,39
3,35
3,28
3,24
3,20
3,17
3,15
3,08
3,04
3,02
2,97
5,12
4,26
3,86
3,63
3,48
3,37
3,29
3,23
3,18
3,14
3,07
3,03
2,99
2,96
2,94
2,86
2,83
2,80
2,76
4,96
4,10
3,71
3,48
3,33
3,22
3,14
3,07
3,02
2,98
2,91
2,86
2,83
2,80
2,77
2,70
2,66
2,64
2,59
4,75
3,89
3,49
3,26
3,11
3,00
2,91
2,85
2,80
2,75
2,69
2,64
2,60
2,57
2,54
2,47
2,43
2,40
2,35
4,60
3,74
3,34
3,11
2,96
2,85
2,76
2,70
2,65
2,60
2,53
2,48
2,44
2,41
2,39
2,31
2,27
2,24
2,19
4,49
3,63
3,24
3,01
2,85
2,74
2,66
2,59
2,54
2,49
2,42
2,37
2,33
2,30
2,28
2,19
2,15
2,12
2,07
4,41
3,55
3,16
2,93
2,77
2,66
2,58
2,51
2,46
2,41
2,34
2,29
2,25
2,22
2,19
2,11
2,06
2,04
1,98
4,35
3,49
3,10
2,87
2,71
2,60
2,51
2,45
2,39
2,35
2,28
2,22
2,18
2,15
2,12
2,04
1,99
1,97
1,91
4,17
3,32
2,92
2,69
2,53
2,42
2,33
2,27
2,21
2,16
2,09
2,04
1,99
1,96
1,93
1,84
1,79
1,76
1,70
4,08
3,23
2,84
2,61
2,45
2,34
2,25
2,18
2,12
2,08
2,00
1,95
1,90
1,87
1,84
1,74
1,69
1,66
1,59
50 100
fZ
1
2
3
4
5
6
7
8
9
10
12
14
16
18
20
30
40
50
100
3,94
3,09
2,70
2,46
2,31
2,19
2,10
2,03
1,97
1,93
1,85
1,79
1,75
1,71
1,68
1,57
1,52
1,48
1,39
Quantile der F-Verteilung für α = 0,99
9.
fN
4,03
3,18
2,79
2,56
2,40
2,29
2,20
2,13
2,07
2,03
1,95
1,89
1,85
1,81
1,78
1,69
1,63
1,60
1,52
1
2
3
4
5
6
7
8
9
10
12
14
16
18
20
30
40
4052
4999
5404
5624
5764
5859
5928
5981
6022
6056
6107
6143
6170
6191
6209
6260
6286
6302
6334
98,5
99,0
99,1
99,3
99,3
99,3
99,4
99,4
99,4
99,4
99,4
99,4
99,4
99,4
99,5
99,5
99,5
99,5
99,5
34,1
30,8
29,5
28,7
28,2
27,9
27,7
27,5
27,3
27,2
27,1
26,9
26,8
26,8
26,7
26,5
26,4
26,4
26,2
21,2
18,0
16,7
16,0
15,5
15,2
15,0
14,8
14,7
14,6
14,4
14,3
14,2
14,1
14,0
13,8
13,8
13,7
13,6
16,3
13,3
12,1
11,4
11,0
10,7
10,5
10,3
10,2
10,1
9,89
9,77
9,68
9,61
9,55
9,38
9,29
9,24
9,13
13,8
10,9
9,78
9,15
8,75
8,47
8,26
8,10
7,98
7,87
7,72
7,60
7,52
7,45
7,40
7,23
7,14
7,09
6,99
12,2
9,55
8,45
7,85
7,46
7,19
6,99
6,84
6,72
6,62
6,47
6,36
6,28
6,21
6,16
5,99
5,91
5,86
5,75
11,3
8,65
7,59
7,01
6,63
6,37
6,18
6,03
5,91
5,81
5,67
5,56
5,48
5,41
5,36
5,20
5,12
5,07
4,96
10,6
8,02
6,99
6,42
6,06
5,80
5,61
5,47
5,35
5,26
5,11
5,01
4,92
4,86
4,81
4,65
4,57
4,52
4,41
10,0
7,56
6,55
5,99
5,64
5,39
5,20
5,06
4,94
4,85
4,71
4,60
4,52
4,46
4,41
4,25
4,17
4,12
4,01
9,33
6,93
5,95
5,41
5,06
4,82
4,64
4,50
4,39
4,30
4,16
4,05
3,97
3,91
3,86
3,70
3,62
3,57
3,47
8,86
6,51
5,56
5,04
4,69
4,46
4,28
4,14
4,03
3,94
3,80
3,70
3,62
3,56
3,51
3,35
3,27
3,22
3,11
8,53
6,23
5,29
4,77
4,44
4,20
4,03
3,89
3,78
3,69
3,55
3,45
3,37
3,31
3,26
3,10
3,02
2,97
2,86
8,29
6,01
5,09
4,58
4,25
4,01
3,84
3,71
3,60
3,51
3,37
3,27
3,19
3,13
3,08
2,92
2,84
2,78
2,68
8,10
5,85
4,94
4,43
4,10
3,87
3,70
3,56
3,46
3,37
3,23
3,13
3,05
2,99
2,94
2,78
2,69
2,64
2,54
7,56
5,39
4,51
4,02
3,70
3,47
3,30
3,17
3,07
2,98
2,84
2,74
2,66
2,60
2,55
2,39
2,30
2,25
2,13
7,31
5,18
4,31
3,83
3,51
3,29
3,12
2,99
2,89
2,80
2,66
2,56
2,48
2,42
2,37
2,20
2,11
2,06
1,94
50 100
fZ
1
2
3
4
5
6
7
8
9
10
12
14
16
18
20
30
40
50
100
α
0
1
Ff Z ; f N ;α
47
2
7,17
5,06
4,20
3,72
3,41
3,19
3,02
2,89
2,78
2,70
2,56
2,46
2,38
2,32
2,27
2,10
2,01
1,95
1,82
6,90
4,82
3,98
3,51
3,21
2,99
2,82
2,69
2,59
2,50
2,37
2,27
2,19
2,12
2,07
1,89
1,80
1,74
1,60
IV. Tafeln
10. Kritische Werte bn;α für den Vorzeichentest
α
n
6
7
8
9
10
11
12
13
14
15
0,90
6
6
7
7
8
9
9
10
10
11
0,95 0,975
6
6
7
7
7
8
8
8
9
9
9
10
10
10
10
11
11
12
12
12
α
0,99 0,995
7
8
8
9
9
10
10
10
11
11
11
12
12
12
13
13
13
n
16
17
18
19
20
21
22
23
24
25
0,90
12
12
13
13
14
14
15
16
16
17
0,95 0,975
13
13
13
13
13
14
14
15
15
15
15
16
16
17
16
17
17
18
18
18
0,99 0,995
14
14
14
15
15
15
15
16
16
17
17
17
17
18
18
19
19
19
19
20
Zur Verwendung der Tabellenwerte siehe Abschnitt III.3.5.
11. Kritische Werte für den Korrelationskoeffizienten
α
α
n
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
0,05
0,8783
0,8114
0,7545
0,7067
0,6664
0,6319
0,6021
0,5760
0,5529
0,5324
0,5140
0,4973
0,4821
0,4683
0,4555
0,4438
0,4329
0,4227
0,4132
0,4044
0,3961
0,3882
0,3809
0,3739
0,3673
0,3610
0,01
0,9587
0,9172
0,8745
0,8343
0,7977
0,7646
0,7348
0,7079
0,6835
0,6614
0,6411
0,6226
0,6055
0,5897
0,5751
0,5614
0,5487
0,5368
0,5256
0,5151
0,5052
0,4958
0,4869
0,4785
0,4705
0,4629
n
35
40
45
50
55
60
65
70
75
80
85
90
95
100
150
200
250
300
350
400
500
600
700
800
900
1000
0,001
0,9911
0,9741
0,9509
0,9249
0,8983
0,8721
0,8470
0,8233
0,8010
0,7800
0,7604
0,7419
0,7247
0,7084
0,6932
0,6788
0,6652
0,6524
0,6402
0,6287
0,6178
0,6074
0,5974
0,5880
0,5789
0,5703
0,05
0,3338
0,3120
0,2940
0,2787
0,2656
0,2542
0,2441
0,2352
0,2272
0,2199
0,2133
0,2072
0,2017
0,1966
0,1603
0,1388
0,1241
0,1133
0,1049
0,0981
0,0877
0,0801
0,0741
0,0693
0,0654
0,0620
0,01
0,4296
0,4026
0,3801
0,3610
0,3445
0,3301
0,3173
0,3060
0,2957
0,2864
0,2780
0,2702
0,2631
0,2565
0,2097
0,1818
0,1626
0,1485
0,1375
0,1287
0,1151
0,1051
0,0973
0,0910
0,0858
0,0814
0,001
0,5322
0,5007
0,4742
0,4514
0,4317
0,4143
0,3988
0,3850
0,3724
0,3611
0,3507
0,3412
0,3323
0,3242
0,2660
0,2310
0,2069
0,1891
0,1752
0,1639
0,1467
0,1340
0,1241
0,1161
0,1095
0,1039
Der Korrelationskoeffizient ist signifikant von null verschieden, wenn der Betrag des
empirischen Korrelationskoeffizienten größer ist als der hier angegebene Tabellenwert. n bezeichnet dabei den Umfang der Stichprobe, aus der der empirische Korrelationskoeffizient berechnet wurde (vgl. Abschnitt III.3.4.).
48
IV. Tafeln
12. Kritische Werte für Schiefe und Exzess
Sn;1-α/2
Wn;α/2
n
α = 0,01
α = 0,05
7
8
9
10
12
15
20
25
30
35
40
45
50
55
60
65
70
75
80
85
90
100
110
120
130
140
150
160
170
180
190
200
1,576
1,601
1,577
1,565
1,491
1,462
1,303
1,218
1,114
1,043
0,985
0,934
0,889
0,850
0,816
0,785
0,758
0,733
0,710
0,689
0,670
0,636
0,607
0,581
0,558
0,538
0,519
0,503
0,488
0,474
0,461
0,449
1,215
1,202
1,189
1,157
1,114
1,048
0,951
0,876
0,804
0,762
0,714
0,678
0,648
0,620
0,596
0,575
0,556
0,538
0,522
0,507
0,494
0,470
0,449
0,431
0,414
0,400
0,387
0,375
0,364
0,354
0,345
0,336
Wn;1-α/2
α = 0,01
α = 0,05
1,58
1,66
1,73
1,78
1,83
1,87
1,91
1,94
1,97
2,00
2,02
2,05
2,07
2,08
2,10
2,13
2,15
2,18
2,20
2,22
2,24
2,26
2,28
2,29
2,31
2,32
1,34
1,40
1,45
1,49
1,56
1,64
1,73
1,82
1,89
1,94
1,99
2,03
2,06
2,09
2,12
2,15
2,17
2,19
2,21
2,22
2,24
2,27
2,30
2,32
2,34
2,36
2,37
2,39
2,40
2,41
2,43
2,44
Die Werte wurden [14] entnommen.
Zur Verwendung der Tafel siehe Abschnitt III.3.3.
49
α = 0,01
α = 0,05
5,91
5,81
5,69
5,58
5,48
5,38
5,28
5,19
5,11
5,03
4,97
4,90
4,84
4,79
4,74
4,66
4,58
4,52
4,46
4,41
4,36
4,31
4,27
4,23
4,19
4,16
3,85
4,09
4,28
4,40
4,56
4,66
4,68
4,63
4,57
4,51
4,46
4,41
4,36
4,32
4,28
4,24
4,20
4,17
4,14
4,11
4,08
4,03
3,99
3,95
3,92
3,89
3,86
3,83
3,81
3,79
3,77
3,75
V. Literatur
V. Literatur
1.
Lehrbücher und Aufgabensammlungen
[1] Bankhofer, Vogel: Datenanalyse und Statistik - Eine Einführung für Ökonomen
im Bachelor. Gabler 2008.
[2] Bankhofer, Vogel: Übungsbuch Datenanalyse und Statistik. Springer Gabler
2012.
[3] Bleymüller, Gehlert, Gülicher: Statistik für Wirtschaftswissenschaftler. Vahlen
2012.
[4] Dürr, Mayer: Wahrscheinlichkeitsrechnung und Schließende Statistik. Carl
Hanser 2013.
[5] Eckey, Kosfeld, Dreger: Statistik. Grundlagen – Methoden – Beispiele. Gabler
2002.
[6] Fahrmeir, Künstler, Pigeot, Tutz: Statistik: Der Weg zur Datenanalyse.
Springer 2012.
[7] Nollau, Partzsch, Storm, Lange: Wahrscheinlichkeitsrechnung und Statistik in
Beispielen und Aufgaben. Teubner 1997.
[8] Storm: Wahrscheinlichkeitsrechnung, mathematische Statistik und statistische
Qualitätskontrolle. Carl Hanser 2007.
2.
Nachschlagewerke und Tabellen
[9] Bleymüller, Gehlert: Statistische Formeln, Tabellen und Statistik-Software.
Vahlen 2011.
[10] Hartung, Elpelt, Klösener: Statistik - Lehr- und Handbuch der angewandten
Statistik. Oldenbourg 2009.
[11] Hartung, Elpelt: Multivariate Statistik - Lehr- und Handbuch der angewandten
Statistik. Oldenbourg 2006.
[12] Owen: Handbook of Statistical Tables. Addison-Wesley 1962.
[13] Sachs, Hedderich: Angewandte Statistik: Methodensammlung mit R. Springer
2011.
3.
Quellennachweis
[14] D'Agostino, Stephens: Goodness-of-fit techniques. Marcel Dekker 1986.
50
Herunterladen