formelsammlung zur schliessenden statistik

Werbung
Lehrstuhl für Empirische Wirtschaftsforschung und Ökonometrie
Dr. Roland Füss ● Statistik II: Schließende Statistik ● SS 2007
FORMELSAMMLUNG ZUR SCHLIESSENDEN STATISTIK
INHALT:
1. Relationen zwischen zufälligen Ereignissen ................................................................................................................ - 3 1.1
Enthaltenseinbeziehung .......................................................................................................................... - 3 1.2
Summe von Ereignissen ........................................................................................................................... - 3 1.3
Produkt von Ereignissen ......................................................................................................................... - 3 1.4
Sicheres Ereignis ..................................................................................................................................... - 3 1.5
Unmögliches Ereignis............................................................................................................................. - 3 1.6
Komplementärereignis ............................................................................................................................. - 3 1.7
Sich ausschließende Ereignisse .............................................................................................................. - 3 1.8
Differenz zweier Ereignisse ...................................................................................................................... - 3 1.9
Gesetze über Ereignisse ........................................................................................................................... - 3 2. Kombinatorik ...............................................................................................................................................................
2.1
Fakultät ....................................................................................................................................................
2.2
Permutationen .........................................................................................................................................
2.3
Kombinationen ........................................................................................................................................
2.4
Variationen ...............................................................................................................................................
2.5
Binomialkoeffizienten .............................................................................................................................
-4-4-4-4-4-5-
3. Wahrscheinlichkeitsrechnung ......................................................................................................................................
3.1
Wahrscheinlichkeitsbegriffe...................................................................................................................
3.2
Eigenschaften der Wahrscheinlichkeit ..................................................................................................
3.3
Additionssatz ...........................................................................................................................................
3.4
Bedingte Wahrscheinlichkeit .................................................................................................................
3.5
Multiplikationssatz (Allgemeiner Fall) ...................................................................................................
3.6
Stochastische Unabhängigkeit ..............................................................................................................
3.7
Satz über die totalen Wahrscheinlichkeiten und die Formel von Bayes ............................................
-5-5-6-6-7-7-7-8-
4. Zufallsvariable und Verteilungsfunktion ....................................................................................................................... - 8 4.1
Eindimensionale Zufallsvariable ............................................................................................................ - 8 4.1.1 Diskreter Fall ................................................................................................................................ - 8 4.1.2 Stetiger Fall .................................................................................................................................. - 9 4.2
Zweidimensionale Zufallsvariable (x,y) ............................................................................................... - 10 5. Kenngrößen von Wahrscheinlichkeitsverteilungen ....................................................................................................
5.1
Erwartungswert (Mittelwert der Grundgesamtheit) ............................................................................
5.2
Das Rechnen mit Erwartungswerten ...................................................................................................
5.3
Varianz ...................................................................................................................................................
5.4
Sätze über die Varianzen ......................................................................................................................
5.5
Mittelwert und Varianz ..........................................................................................................................
5.6
Standardisierung: X habe den Mittelwert μx und die Varianz σx2..................................................
5.7
Kovarianz ...............................................................................................................................................
5.8
Sätze über die Kovarianz ......................................................................................................................
5.9
Korrelation .............................................................................................................................................
5.10 Momente von eindimensionalen Verteilungen ...................................................................................
- 10 - 10 - 12 - 13 - 13 - 13 - 14 - 14 - 14 - 14 - 15 -
5.11
5.12
5.13
5.14
Momenterzeugende Funktion...............................................................................................................
Momente von zweidimensionalen Verteilungen .................................................................................
Schiefe ...................................................................................................................................................
Wölbung (Exzeß) ...................................................................................................................................
- 15 - 16 - 16 - 16 -
6. Spezielle diskrete Wahrscheinlichkeitsmodelle .........................................................................................................
6.1
Bernoulli - Verteilung ............................................................................................................................
6.2
Geometrische Verteilung ......................................................................................................................
6.3
Binomialverteilung ................................................................................................................................
6.4
Poisson - Verteilung..............................................................................................................................
6.5
Hypergeometrische Verteilung ............................................................................................................
- 16 - 16 - 17 - 17 - 18 - 19 -
7. Spezielle stetige Wahrscheinlichkeitsmodelle ...........................................................................................................
7.1
Normalverteilung ...................................................................................................................................
7.1.1 Normalverteilung N(x∗μ,σ2)......................................................................................................
7.1.2 Standardnormalverteilung N(x∗0,1) ..........................................................................................
7.1.3 Mehrdimensionale Normalverteilung N(x∗μ,3) ..........................................................................
7.2
Exponentialverteilung ...........................................................................................................................
7.3
Lineare Verteilungen .............................................................................................................................
7.4
Testverteilungen....................................................................................................................................
- 20 - 20 - 20 - 20 - 23 - 23 - 24 - 25 -
8. Grenzwertsätze .........................................................................................................................................................
8.1
Stochastische Konvergenz...................................................................................................................
8.2
Tschebyscheff'sche Ungleichung........................................................................................................
8.3
Gesetz der großen Zahlen ....................................................................................................................
8.4
Zentrale Grenzwertsätze .......................................................................................................................
- 25 - 25 - 26 - 26 - 27 -
9. Grundlagen der Schätztheorie ..................................................................................................................................
9.1
Punktschätzungen ................................................................................................................................
9.2
Kriterien für Punktschätzungen ...........................................................................................................
9.3
Intervallschätzungen.............................................................................................................................
9.4
Schätzfehler, Intervalllänge und Stichprobenverlauf .........................................................................
- 28 - 28 - 29 - 30 - 31 -
10. Testtheorie ..............................................................................................................................................................
10.1 Fehlerarten und Entscheidungsregeln ................................................................................................
10.2 Unterschied bei Anteilssätzen und Mittelwerten ................................................................................
10.2.1 Ein - Stichproben - Problem .......................................................................................................
10.2.2 Zwei - Stichproben - Problem .....................................................................................................
10.3 Prüfung anderer Parameter ..................................................................................................................
10.3.1 Unterschied der Varianzen .........................................................................................................
10.3.2 Abweichung des Korrelationskoeffizienten von 0 .......................................................................
10.4 χ2 -Test ...................................................................................................................................................
10.4.1 Anpassungstest .........................................................................................................................
10.4.2 Unabhängigkeitstest zwischen zwei Variablen X , Y .................................................................
11. Nichtparametrische Testverfahren ..........................................................................................................................
- 33 - 33 - 33 - 33 - 34 - 35 - 35 - 36 - 36 - 36 - 37 - 33 -
Kritische Werte t(α) der t - Verteilung für verschiedene α ................................................................................... - 38 Ausgewählte Werte der χ2 - Verteilung .................................................................................................................... - 39 Kritische Werte F(α) der F - Verteilung ..................................................................................................................... - 40 Wahrscheinlichkeiten der Standardnormalverteilung N(x∗0,1) .............................................................................. - 22 Kritische Werte für Binomialverteilung, Mann-Whitney- und Wilcoxon-Test............................................................ -42 -
1. Relationen zwischen zufälligen Ereignissen
Ereignis: A, B, C
1.1
Enthaltenseinbeziehung:
A⊂B
1.2
Summe von Ereignissen:
A∪B
1.3
Produkt von Ereignissen:
A∩B
1.4
Sicheres Ereignis:
E
1.5
Unmögliches Ereignis:
∅
1.6
Komplementärereignis:
1.7
Sich ausschließende Ereignisse: A ∩ B = ∅
1.8
Differenz zweier Ereignisse: B \ A = B ∩ A
1.9
Gesetze über Ereignisse:
GESETZE
Idempotenz
Kommutativgesetz
Assoziativgesetz
Absorptionsgesetz
Distributivgesetz
(A zieht B nach sich)
ein.)
(Es tritt A oder B ein; oder A und B treten gleichzeitig
(Die Ereignisse treten gleichzeitig auf.)
A
A heißt das zu A komplementäre Ereignis
(A und B heißen unvereinbar (disjunkt,
wenn ihr gleichzeitiges Auftreten unmöglich
ist.)
(Alle Elemente in B, welche nicht in A sind.)
DURCHSCHNITT
VEREINIGUNG
A∩A=A
A∪A=A
A∩B=B∩A
A∪B=B∪A
A ∩ (B ∩ C) = (A ∩ B) ∩ C
A ∪ (B ∪ C) = (A ∪ B) ∪ C
A ∩ (A ∪ B) = A
A ∪ (A ∩ B) = A
A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C)
(A ∪ B) ∩ (A ∪ C) = A ∪ (B ∩ C)
Komplementgesetz
E = ∅; ∅ = E ; A ∩ A = ∅
Gesetz für neutrale
Elemente
A∩∅ =∅
A∪E=E
A∩E=A
A∪∅=A
A∪
A = E; ( A ) = A
-4-
2. Kombinatorik
2.1 Fakultät
(1)
n ! = 1 ⋅ 2 ⋅ 3...(n − 1) ⋅ n (Def.: O! = 1)
Näherungsformel von Stirling:
(2)
n ! ≈ nn ⋅ e− n 2π n
2.2 Permutationen
Bei n verschiedenen Elementen:
(3)
Pn = n !
Zirkularpermutation:
(3a)
Pn| = (n − 1 ) !
Bei k von n verschiedenen Elementen, mit n1 +n2 + ... + nk = n:
n!
W
(4)
Pn =
n1 ! n2 ! ... nk !
2.3 Kombinationen (ohne Berücksichtigung der Anordnung)
Ohne Wiederholungen:
n!
⎛ n⎞
(5) C nk = ⎜ ⎟ =
⎝ k⎠
k ! (n − k) !
Mit Wiederholungen:
⎛ n + k − 1⎞ (n + k - 1 ) !
w
⎟=
(6) C nk = ⎜
k !(n - 1) !
k ⎠
⎝
2.4 Variationen (mit Berücksichtigung der Anordnung)
Ohne Wiederholungen:
n!
(7) V nk =
(n − k) !
Mit Wiederholungen:
(8) w V nk = nk
-52.5 Binomialkoeffizienten
Funktion der Binomialkoeffizienten
⎛n⎞
(9)
F k ( n ) = ⎜⎜ ⎟⎟ ( 0 ≤ k ≤ n ; F 0 ( n ) = 1 )
⎝k ⎠
Es gelten die Beziehungen:
(10a)
⎛ n + 1⎞ ⎛ n ⎞ ⎛ n ⎞
⎜⎜
⎟⎟ = ⎜⎜
⎟⎟ + ⎜⎜ ⎟⎟
⎝ k ⎠ ⎝ k − 1⎠ ⎝ k ⎠
(10b)
⎛ n + 1⎞ ⎛ n ⎞ ⎛ n ⎞
⎜⎜
⎟⎟ = ⎜⎜
⎟⎟ + ⎜⎜ ⎟⎟
⎝ k + 1⎠ ⎝ k + 1⎠ ⎝ k ⎠
(10c)
⎛n⎞ ⎛ n ⎞
n!
⎜⎜ ⎟⎟ = ⎜⎜
⎟⎟ =
⎝ k ⎠ ⎝ k − 1⎠ k ! (n − k) !
(10d)
⎛n⎞
⎜⎜ ⎟⎟ = 1
⎝0⎠
(10e)
⎛ 0⎞
⎜⎜ ⎟⎟ = 1
⎝ 0⎠
3. Wahrscheinlichkeitsrechnung
3.1 Wahrscheinlichkeitsbegriffe
3.1.1 Statistischer Wahrscheinlichkeitsbegriff:
(11) P ( A ) = lim n A
n→∞ n
3.1.2 Klassischer Wahrscheinlichkeitsbegriff:
Anzahl der günstigen Fälle n A
=
(12) P ( A ) =
Anzahl der möglichen Fälle n
3.1.3 Axiomatischer Wahrscheinlichkeitsbegriff:
Indirekte Definition durch Angabe von Eigenschaften und Relationen
(3 Grundaxiome):
A1: Jedem zufälligen Ereignis A wird eine nicht-negative reelle Zahl W (die Wahrscheinlichkeit)
zugeordnet, die zwischen 0 und 1 liegt:
(13)
0 ≤ P( A )≤1
-6A2: Das sichere Ereignis E hat die Wahrscheinlichkeit eins:
(14)
P ( E )= 1
A3: Bei sich ausschließenden Ereignissen addieren sich die Wahrscheinlichkeiten:
(15)
P ( A ∪ B ) = P( A ) + P ( B )
3.1.4 Subjektiver Wahrscheinlichkeitsbegriff:
Wahrscheinlichkeit ist das Maß für den Grad der Überzeugtheit von der Richtigkeit einer
Aussage.
3.1.5 Geometrische Wahrscheinlichkeiten
Ist dem Ereignisraum E (mit überabzählbar unendlich vielen Elementarereignissen) ein
endliches geometrisches Maß (Längen-, Flächen-, Volumenmaß) zugeordnet, so ist die
Wahrscheinlichkeit des zufälligen Ereignisses A in E:
(16)
P ( A )=
Länge von A
Fläche von A
Volumen von A
bzw.
bzw.
Länge von E
Fläche von E
Volumen von E
3.2 Eigenschaften der Wahrscheinlichkeit
Die Wahrscheinlichkeit des unmöglichen Ereignisses ist gleich 0:
P ( ∅ )= 0
(17)
Die Wahrscheinlichkeit des sicheren Ereignisses ist gleich 1:
W(E) = 1
(18)
Ist P(A) die Wahrscheinlichkeit des Ereignisses A und A das zu A komplementäre Ereignis, so gilt die
Beziehung:
(19)
W(A) + P( A ) = 1 = P(E) bzw. P( A ) = 1 - P(A)
Gilt für die zufälligen Ereignisse A und B die Beziehung A ⊂ B (A zieht B nach sich), so ist
(20)
P(A) ≤ P(B)
Sind A und B zwei beliebige Zufallsereignisse, dann ist
(21)
P(A\B) = P(A) - P(A ∩ B)
3.3 Additionssatz
3.3.1 Für beliebige Ereignisse A und B:
(22) P(A ∪ B) = P(A) + P(B) - P(A ∩ B)
ausgedehnt auf die beliebigen Ereignisse A, B, C;
(23) P(A ∪ B ∪ C) = P(A) + P(B) + P(C) - P(A ∩ B)
- P(A ∩ C) - P(B ∩ C) + P(A ∩ B ∩ C)
-73.3.2 für sich ausschließende Ereignisse:
(24) P(A ∪ B) = P(A) + P(B)
bzw. bei n sich ausschließenden Ereignissen:
(25) P(A1 ∪ A2 ∪...∪ An) = P(A1) + P(A2) +...+ P(An)
3.4 Bedingte Wahrscheinlichkeit
Die Wahrscheinlichkeit des Ereignisses A unter der Bedingung, dass das Ereignis B eingetreten ist,
wird bezeichnet mit:
P( A∩ B )
P ( A | B )=
wenn P ( B ) > 0
(26)
P( B )
P( A∩ B )
P ( B | A )=
wenn P ( A ) > 0
(27)
P( A )
Additionssatz für die Ereignisse A, B, C
a) für beliebige Ereignisse A, B, C:
(28) P(A ∪ C ⎜B) = P(A ⎜B) + P(C ⎜B) - P(A ∩ C ⎜B)
b) für sich ausschließende Ereignisse A, C:
(29)
P ( A ∪ C | B )= P ( A | B )+ P ( C | B )=
P( A∩ B ) P( C ∩ B )
+
P( B )
P( B )
3.5 Multiplikationssatz (Allgemeiner Fall)
Haben zwei Ereignisse A und B bei einem Zufallsexperiment die Wahrscheinlichkeit P(A) bzw. P(B), so
beträgt die Wahrscheinlichkeit des gleichzeitigen Eintreffens von A und B
(30)
P(A ∩ B) = P(A) ∗ P(B ⎜A) = P(B) ∗ P(A ⎜B)
3.6 Stochastische Unabhängigkeit
Man nennt ein Ereignis A bzw. B stochastisch unabhängig von dem Ereignis B bzw. A, wenn die
Gleichung
(31)
P(A⏐B) = P(A) bzw. P(B⏐A) = P(B)
besteht, das heißt das Eintreten des Ereignisses A bzw. B hängt vom Eintreten des Ereignisses B bzw.
A nicht ab.
Multiplikationssatz (für unabhängige Ereignisse)
(32)
P(A ∩ B) = P(A) ∗ P(B)
für n unabhängige Ereignisse gilt:
(33)
P(A1 ∩ A2 ∩...∩ An) = P(A1) ∗ P(A2) ∗ ... ∗ P(An)
-83.7 Satz über die totalen Wahrscheinlichkeiten und die Formel von Bayes
Schließen die n zufälligen Ereignisse A1, A2,..., An einander paarweise aus und ist das Ereignis
A = A1 ∪ A2 ∪...∪ An das sichere Ereignis, so gilt für ein beliebiges zufälliges Ereignis B, das genau
mit einem der Ereignisse Ai eintritt:
(34)
n
P ( B) = P ( A1 ) ⋅ P (B | A1 ) + . . .+ P( An ) ⋅ P(B | An ) = ∑ P ( Ai ) ⋅ P ( B | Ai )
i=1
Unter den gleichen Voraussetzungen wie in (34) heißt die Formel von Bayes:
(35)
P ( A j | B )=
P ( Aj ) ⋅ P ( B | Aj )
n
∑P ( A
i
( i = 1, . . . j, . . . n )
) ⋅ P ( B | Ai )
i=1
4. Zufallsvariable und Verteilungsfunktion
4.1 Eindimensionale Zufallsvariable
4.1.1 Diskreter Fall
Wahrscheinlichkeitsfunktion
Eine diskrete Zufallsvariable X nehme abzählbar viele Werte x1, x2, ..., xn mit den zugehörigen Wahrscheinlichkeiten f(xi) an. f(xi) heißt Wahrscheinlichkeitsfunktion (probability
function).
(36)
P ( X = xi ) = f ( xi ) = p i
Eigenschaften der Wahrscheinlichkeitsfunktion
n
(37a) 0 ≤ f ( xi ) ≤ 1
∑ f(
(37b)
xi ) = 1
i=1
Verteilungsfunktion (cumulative distribution function)
(38)
F(x) = W(X ≤ x) =
∑
f ( xi )
xi ≤ x
Intervallwahrscheinlichkeiten
(39)
P ( a < X ≤ b )=
∑
f ( xi ) = F ( b ) − F ( a )
∑
f ( xi ) = F ( b ) − F ( a ) + f ( a )
a < xi ≤ b
aber:
P ( a ≤ X ≤ b )=
a ≤ xi ≤ b
Eigenschaften der Verteilungsfunktion
(40) F(x) wächst monoton (Treppenfunktion) von
lim F ( x ) = 0 bis
x → −∞
lim F ( x ) = 1
x → +∞
-94.1.2
Stetiger Fall
Grundannahme im stetigen Fall: Stetige Zufallsvariable; daneben wird stetige Differenzierbarkeit der Verteilungsfunktion bzw. Stetigkeit der Dichtefunktion gefordert.
Dichtefunktion (density function)
(41)
f(x) =
d F(x)
d x
Eigenschaften der Dichtefunktion
(42a) f ( x ) ≥ 0
+∞
(42b)
∫
f(x)d x = 1
−∞
Verteilungsfunktion (cumulative distribution function):
x
(43)
F ( x )= P ( X ≤ x )=
∫
f ( u )d u
−∞
lntervallwahrscheinlichkeiten
b
(44)
P ( a < X ≤ b )= ∫ f ( x ) d x = F ( b ) − F ( a )
a
Für stetige Verteilungen gilt stets:
(45)
P (a < X ≤ b) = P ( a ≤ X ≤ b) = P( a < X < b) = P( a ≤ X < b)
Eigenschaften der Verteilungsfunktion
(46) F(x) steigt monton und stetig von
lim F ( x ) = 0 bis lim F ( x ) = 1
x → −∞
x → +∞
- 10 4.2 Zweidimensionale Zufallsvariable (x,y)
Begriff
Nr.:
Diskreter Fall
Stetiger Fall
Wahrscheinlichkeitsfunktion
bzw.
Dichtefunktion
(47a)
f ( xi , y j )
f(x , y)
(47b)
0 ≤ f ( xi , y j ) ≤ 1
0 ≤ f(x , y)
∑∑
(47c)
i
Verteilungsfunktion
Randverteilungen
j
∑ ∑
F (x , y) =
(48)
xi ≤ x y j ≤ y
f( xi , y j )
F ist eine Treppenfunktion und steigt von
F(-∝,-∝) = 0 bis F(+∝,+∝) = 1.
∞
∞ ∞
F ist stetig differenzierbar und steigt monoton
von F(-∝,-∝) = 0 bis F(+∝,+∝) = 1
•
f(x) =
f ( y j ) = ∑ f ( xi , y j ) = p•
f(x , y)d y
∞
j
f(y) =
∫
f(x , y)d x
−∞
(50a)
f ( xi | y j ) =
(50b)
f ( y j | xi ) =
f ( xi , y j )
f ( yj )
f ( xi , y j )
f ( xi )
k
E ( X | yj) =
∫
−∞
j
(49a)
, y)d x d y = 1
∞
f ( x i ) = ∑ f ( x i , y j ) = pi
(51a)
∞
F(x , y)= ∫ ∫ f ( u, v)d u d v
(49b)
Bedingte
Erwartungswerte
∞
x y
i
Bedingte Verteilungen
∞
∫ ∫f(x
f ( xi , y j ) = 1
∑x
i
f ( xi | y j ) = μ x |y
j
f ( y j |xi ) = μ y |x
f(x , y)
f(y)
f(x , y)
f(y | x) =
f(x)
f(x | y) =
i=1
(51b)
m
E ( Y | xi ) =
∑y
j=1
Unabhängigkeit
von X und Y
(52)
f ( x i , y j ) = f ( xi ) ⋅ f ( y j )
5. Kenngrößen von Wahrscheinlichkeitsverteilungen
5.1 Erwartungswert (Mittelwert der Grundgesamtheit)
N
(53a) Diskreter Fall:
E(X) =
∑x
i=1
∞
(53b) Stetiger Fall: E ( X ) =
∫
−∞
N
i
f ( xi ) =
∑x
i=1
x f ( x ) d x = μx
i
pi = μ x
f ( x , y )= f ( x ) ⋅
f( y)
- 11 -
Wahrscheinlichkeitsfunktion f(zn) für die Summe der Augenzahlen
n
zn =
∑x
, bei n = 1, 2, 3, 4, 5 Würfen mit einem regulären Würfel
i
i = 1
zn
f(z1)
f(z2)
f(z3)
f(z4)
f(z5)
*6
* 62
* 63
* 64
* 65
1
1
2
1
1
3
1
2
1
4
1
3
3
1
5
1
4
6
4
6
1
5
10
7
6
8
f(z1)
f(z2)
f(z3)
f(z4)
f(z5)
0,1667
0,1667
0,0278
0,1667
0,0555
0,0046
0,1667
0,0833
0,0139
0,0008
1
0,1667
0,1111
0,0278
0,0031
0,0001
10
5
0,1667
0,1388
0,0463
0,0077
0,0006
15
20
15
0,1667
0,0694
0,0154
0,0019
5
21
35
35
0,1388
0,0972
0,0270
0,0045
9
4
25
56
70
0,1111
0,1157
0,0432
0,0090
10
3
27
80
126
0,0833
0,1250
0,0617
0,0162
11
2
27
104
205
0,0555
0,1250
0,0802
0,0264
12
1
25
125
305
0,0278
0,1157
0,0965
0,0392
13
21
140
420
0,0972
0,1080
0,0540
14
15
146
540
0,0694
0,1127
0,0694
15
10
140
651
0,0463
0,1080
0,0837
16
6
125
735
0,0278
0,0965
0,0945
17
3
104
780
0,0139
0,0802
0,1003
18
1
80
780
0,0046
0,0617
0,1003
19
56
735
0,0432
0,0945
20
35
651
0,0270
0,0837
21
20
540
0,0154
0,0694
22
10
420
0,0077
0,0540
23
4
305
0,0031
0,0392
24
1
205
0,0008
0,0264
25
126
0,0162
26
70
0,0090
27
35
0,0045
28
15
0,0019
29
5
0,0006
30
1
0,0001
ϕ
6
36
= 62
216
= 63
1296
= 64
7776
= 65
1,0000
1,0000
1,0000
1,0000
1,0000
- 12 -
5.2
Das Rechnen mit Erwartungswerten
Der Erwartungswert ist ein linearer Operator
(54) E(a) = a
(55)
E(b ∗ X) = b∗ E(X)
(56)
E(a + b ∗ X) = a + b ∗ E(X)
(57)
E(X+Y) = E(X) + E(Y)
(58)
E(X1+X2+ ... +Xn) = E(X1) + E(X2) + ... + E(Xn)
(59)
E(X ∗ Y) = E(X) ∗ E(Y)
bei Unabhängigkeit !
Eine Funktion einer Zufallsvariablen ist im allgemeinen wieder eine Zufallsvariable. Erwartungswerte von mittelbaren
Zufallsvariablen können berechnet werden, ohne dass die zugehörige Wahrscheinlichkeitsfunktion bekannt ist. Dazu
dienen die Sätze:
(60)
N
Y = Φ ( X ) → E ( Y ) = ∑ φ ( xi ) ⋅ f ( xi )
i=1
(61)
Z = Ψ ( X , Y ) → E ( Z ) = ∑ ∑ψ ( xi , y j ) ⋅ f ( xi , y j )
i
j
- 13 5.3
Varianz
(62)
Var ( X ) = E [ X − E ( X ) ] 2
(63a) Diskreter Fall:
Var ( X ) = ∑ ( xi − μ )2 ⋅ f ( xi ) = σ 2x
N
i=1
∞
(63b) Stetiger Fall:
Var ( X ) =
∫(x
μ )2 ⋅ f ( x ) d x = σ 2x
−∞
(64)
σ x = Var ( X ) = Standarda bweichung
5.4 Sätze über die Varianzen
Verschiebungssatz
(65)
Var( X ) = E ( X 2 ) − [ E ( X ) ] 2
N
⎧
2
2
=
xi ⋅ f ( xi ) − μ
∑
⎪
i=1
⎪
⎨ ∞
⎪ = x2 ⋅ f ( x ) d x − μ 2
⎪⎩ −∫∞
(66) Var(a) = 0
(67)
Var(X+a) = Var(X)
(68)
Var(b ∗ X) = b2 ∗ Var(X)
(69)
Var(a+b ∗ X) = b2 ∗ Var(X)
(70)
σa+bX = │b│ ∗ σx
(71)
Bei Unabhängigkeit von X , Y gilt:
Var(X+Y) = Var(X) + Var(Y)
(72)
Bei Unabhängigkeit der Xi gilt:
Var(X1+X2+ ... +Xn) = Var(X1) + Var(X2) + ... + Var(Xn)
5.5
Mittelwert und Varianz
einer Summe unabhängiger identisch verteilter Zufallsvariablen
(73)
E(X1+X2+ ... +Xn) = n ∗ μ
(74)
Var(X1+X2+ ... +Xn) = n ∗ σx2
- 14 5.6 Standardisierung: X habe den Mittelwert μx und die Varianz σx2
X − μx
(75)
Z=
(76)
E(Z) = μz = 0
(77)
Var(Z) = σz2 = 1
σx
5.7 Kovarianz (Kenngröße und Unabhängigkeitsmaß für zweidimensionale Verteilungen)
(78)
Cov ( X , Y ) = E
[[
(79) Diskreter Fall:
Cov ( X , Y ) = ∑
∑ ( x −μ
i
(80) Stetiger Fall: Cov ( X , Y ) =
∞
∞
−∞
−∞
∫ ∫
i
x
]]= σ x y
) ⋅ ( y j − μ y ) ⋅ f ( xi , y j )
j
=∑
i
X −E( X ) ] ⋅ [ Y −E( Y )
∑
xi ⋅ y j ⋅ f ( xi , y j ) - μ x ⋅ μ y
j
( x − μx ) ⋅ ( y − μy ) ⋅ f ( x , y ) d x d y
5.8 Sätze über die Kovarianz
Cov ( X , Y ) = E ( X ⋅ Y ) − E ( X ) ⋅ E ( Y ) = E ( X ⋅ Y ) − μ x ⋅ μ y
(81)
Daraus folgt (Erwartungswert eines Produktes von Zufallsvariablen):
(82)
E(X ∗ Y) = E(X) ∗ E(Y) + Cov(X,Y)
Bei Unabhängigkeit ist
Cov(X,Y) = 0
(83)
Cov(X,X) = V(X)
Cov(a+b ∗ X, c+d ∗ Y) = b ∗ d Cov(X,Y)
(84)
Varianz einer Summe nicht unabhängiger Zufallsvariablen
(85)
⎛
V ⎜∑
⎝i = 1
n
(85a)
Var(X+Y) = Var(X) + Var(Y) + 2 ∗ Cov(X,Y)
n
⎞
X i ⎟ = ∑ V ( X i ) + ∑ ∑ Cov ( X i , X j )
⎠
i = 1
i
j
i
≠
j
5.9 Korrelation (Bravais - Pearson'scher Korrelationskoeffizient)
Unabhängigkeitsmaß bei zweidimensionalen Verteilungen
(86)
ρ ( X , Y )=
Cov ( X , Y )
σxy
=
Var ( X ) ⋅ Var ( Y ) σ x ⋅ σ y
- 15 Eigenschaften der Korrelation:
ρ (X , Y) = ρ (Y , X)
(87)
ρ ( X , − X )= − 1
(88)
ρ (X , X) = + 1
(89)
− 1 ≤ ρ ≤ + 1
(90)
(91)
ρ ( X , Y ) falls ( sign b ) = ( sign d )
⎩ − ρ ( X , Y ) falls ( sign b ) ≠ ( sign d )
⎧
ρ(a + bX , c + dY) = ⎨
Bei Unabhängigkeit ist ρ(X,Y) = 0
5.10
(Umkehrung gilt nicht)
Momente von eindimensionalen Verteilungen
5.10.1
Allgemeine Momente (A ist ein beliebiger Wert):
(92)
5.10.2
r
mr ( A ) = E ( X − A ) ( r = 1 , 2 ,
. . .
)
Momente um den Nullpunkt (Anfangsmomente) (A = O):
(93)
r
r
mr ( 0 ) = E ( X ) = ∑ xi ⋅ f ( xi ) bzw.
i
∞
∫
r
x ⋅ f ( x )d x
−∞
z.B.: m1(0) = E(X) = μ
5.10.2
Momente um den Mittelwert (Zentralmomente) (A = μ)
r
r
m r ( μ ) = E ( X − μ ) = ∑ ( xi − μ ) ⋅ f ( xi )
i
(94)
∞
bzw.
∫ ( x−μ )
r
⋅ f ( x )d x
−∞
z.B.: m1(μ) = 0 (Schwerpunkteigenschaft)
m2(μ) = σ2
5.11 Momenterzeugende Funktion
(95)
(96) Diskreter Fall:
m ( t ) = E ( et X )
m ( t ) = ∑ et x i ⋅ f ( xi )
i
∞
(97) Stetiger Fall:
m ( t )=
∫e
t x
∞
⋅ f ( x )d x
- 16 5.12
Momente von zweidimensionalen Verteilungen
5.12.1
Momente um den Nullpunkt (Anfangsmomente):
r
s
(98)
mr s ( 0 ) = E ( X Y )
z.B.: m10(0) = μx
m01(0) = μy
5.12.2
Momente um den Mittelwert (Zentralmomente):
(99)
mr s ( μ ) = E ( X − μ x
[
)
s
]
Schiefe
γ =
(103)
5.14
(
⋅ Y − μy
m2 0 ( μ ) = σ 2x
m0 2 ( μ ) = σ 2y
m1 1 ( μ ) = σ y x
(100)
(101)
(102)
5.13
)r
3
E(X − μ )
σ
3
=
m3 ( μ )
3
m2 ( μ )2
Wölbung (Exzeß)
ε =
(104)
4
E(X − μ )
σ
4
− 3 =
m4 ( μ )
2 − 3
m2 ( μ )
6. Spezielle diskrete Wahrscheinlichkeitsmodelle
6.1
Bernoulli - Verteilung
Eine Zufallsvariable (Bernoulli - Variable; 0,1 -Variable) nimmt die Werte 0 und 1 mit den
Wahrscheinlichkeiten p und q an:
(105)
Wahrscheinlichkeitsfunktion: f(x) = pxq1-x
(106a) Mittelwert:
μ=P
(106b) Varianz:
σ2 = pq
(106c)
mx(t) = 1 + p(et - 1)
Momenterzeugende Funktion:
x
f(x)
0
q
1
p
sonst
0
- 17 6.2
Geometrische Verteilung
Frage der Wahrscheinlichkeit des Eintritts des 1. Erfolges
Bed.: gleichbleibende Erfolgswahrscheinlichkeiten, stochastische Unabhängigkeit
Wahrscheinlichkeitsfunktion:
x − 1
(107a)
g ( x | p )= p ⋅ q
für x = 1 , 2 , 3 , . . .
Verteilungsfunktion:
x
(107b)
F g ( x )=
∑
p ⋅ qk
−1
k =1
Erwartungswert:
(108a)
E(X) = μ =
1
p
Varianz:
Var ( X ) = σ 2 =
(1O8b)
q 1− p
= 2
2
p
p
Momenterzeugende Funktion:
(108c)
6.3
mx ( t )=
p ⋅ et
1 − et ( 1 − p )
Binomialverteilung
Urnenmodell: In einer Urne befinden sich M weiße und N - M schwarze Kugeln. Wie groß ist die
Wahrscheinlichkeit bei einer (unabhängigen) Stichprobe mit Zurücklegen vom Umfang n genau x
(0 # x # n) weiße Kugeln zu ziehen?
Bezeichnungen:
p=
Wahrscheinlichkeit für das Auftreten eines betrachteten (0,1) - Merkmals (z. B. weiße Kugeln)
in der Grundgesamtheit.
M
= const. = Anteilssatz der weißen Kugeln.
p =
N
N − M
= Anteilssatz der schwarzen Kugeln.
q = 1 − p =
N
n = Anzahl der Elemente in einer unabhängigen Stichprobe (mit Zurücklegen bei endlicher Urne).
x = Anzahl der Ereignisträger (z.B. weiße Kugeln) in einer Stichprobe
Wahrscheinlichkeitsfunktion:
(109)
⎛n⎞
f ( x ) = b ( x | n , p ) = ⎜⎜ ⎟⎟ ⋅ p x ⋅ q n − x ( x = 0 , 1 , 2 , . . . , n )
⎝ x⎠
- 18 (109a)
n
∑
n
b ( x | n , p )=
x=0
∑
x=0
Verteilungsfunktion:
(11O)
x
F b ( x )=
∑
k =0
Erwartungswert:
(111)
μ=n ⋅ p
Varianz:
(112a)
σ 2= n ⋅ p ⋅ q
Momenterzeugende Funktion:
(112b)
⎛ n⎞ k
⎜⎜ ⎟⎟ ⋅ p ⋅ q n − k
⎝k ⎠
mx(t) = [1 + p(et - 1)]n
Rekursionsformel:
(113)
b ( x + 1 | n , p )=
Relativierte Binomialvariable:
X 1
(114)
F= = ⋅
n n
6.4
⎛n⎞ x
⎜⎜ ⎟⎟ ⋅ p ⋅ q n − x = ( p + q )n = 1
⎝ x⎠
(115a)
μ= p
(115b)
σ 2=
n−x p
⋅
⋅ b( x | n , p )
x +1 q
( X 1+ X 2 + . . .
+ Xn
)
p ⋅q
n
Poisson - Verteilung
Dieser Verteilung liegt im wesentlichen dasselbe Problem zugrunde wie der Binomialverteilung. Es
unterscheidet sich nur darin, daß die Zahl n der aus der Urne gezogenen Kugeln sehr groß und die
Wahrscheinlichkeit für das Ziehen einer bestimmten (z.B. weißen) Kugel sehr klein ist. (λ = np =
const.)
Wahrscheinlichkeitsfunktion:
(116)
(116a)
Verteilungsfunktion:
(117)
x
λ
p ( x | λ )=
⋅ e −λ
x !
∞
∑
p ( x | λ )=
x=0
∑
x=0
x
F p ( x )=
∞
∑
k =0
( x=0 , 1 , 2 , . . . )
λx ⋅ −λ = λ ⋅ −λ = 1
e
e e
x !
λk ⋅ − λ = − λ ⋅
e
e
k !
λk
∑k
k ≤ x
!
- 19 Mittelwert und Varianz:
(118)
μ = σ2 = λ
Momenterzeugende Funktion:
(119)
m x ( t ) = exp [ μ
Rekursionsformel:
(120)
p ( x + 1 | λ )=
( e − 1 )]
t
λ
x +1
⋅ p( x | λ )
Reproduktivität:
Die Summe von Poisson-Variablen ist wieder poissonverteilt.
6.5
Hypergeometrische Verteilung
Urnenmodell:
Endliche Urne wie bei der Binomialverteilung, Unabhängige Stichprobe ohne
Zurücklegen.
Bezeichnungen:
N = Anzahl der Elemente in der Grundgesamtheit.
M = Anzahl der Elemente mit einem bestimmten alternativen Merkmal = Ereignisträger (z.B. weiße
Kugeln).
M
p =
= Wahrscheinlichkeit des Auftretens des betrachteten (0,1) - Merkmals (z. B. weiße
N
Kugeln) - p verändert sich von Zug zu Zug -.
N − M
= Gegenwahrscheinlichkeit
N
n = Anzahl der Elemente der Stichprobe (ohne Zurücklegen).
q = 1 − p =
x = Anzahl der Ereignisträger (z.B. weiße Kugeln) in der Stichprobe.
Wahrscheinlichkeitsfunktion:
(121)
Verteilungsfunktion:
(122)
Mittelwert:
(123)
⎛M ⎞ ⎛N − M ⎞
⎟
⎜ ⎟⋅⎜
⎜ x⎟ ⎜ n − x⎟
⎠
h ( x | n ; M ; N )= ⎝ ⎠ ⎝
⎛N⎞
⎜ ⎟
⎜ n⎟
⎝ ⎠
⎛M ⎞ ⎛N − M ⎞
⎟
⎜ ⎟⋅⎜
⎜ k⎟ ⎜ n − k⎟
⎠
⎝
⎝
⎠
F h ( x )= ∑
⎛N⎞
k ≤ x
⎜ ⎟
⎜ n⎟
⎝ ⎠
μ=n ⋅
M
=n ⋅ p
N
- 20 Varianz
(124)
σ 2=
Rekursionsformel:
(125)
N −n
M N −M
N −n
⋅ n ⋅
⋅
⋅ n ⋅ p ⋅ q
=
N −1
N
N
N −1
h ( x + 1| n ; M ; N ) =
(n − x ) ⋅ (M − x )
⋅ h ( x | n ; M; N )
(x + 1) ⋅ (N − M − n + x +1)
7. Spezielle stetige Wahrscheinlichkeitsmodelle
7.1
Normalverteilung
7.1.1
Normalverteilung N(x│μ,σ2)
Dichtefunktion:
(126) N ( x | μ ,σ 2 ) = f ( x ) =
σ
Verteilungsfunktion:
⎡ ( u − μ )2 ⎤
exp
⎢
⎥ du
∫
2
−∞
⎣ 2σ ⎦
x
1
(127) F ( x ) =
⎡ ( x − μ )2 ⎤
⋅ exp ⎢ −
⎥ (− ∞< x<∞ )
2 σ2 ⎦
2 π
⎣
1
σ 2π
Mittelwert und Varianz:
⋅
E(X) = μ
Var ( X ) = σ 2
(128a)
(128b)
Momenterzeugende Funktion:
⎛
σ 2 ⋅ t2
⎜
μ
exp
(
t
)
=
⋅
t
+
mx
⎜
2
⎝
(129)
⎞
⎟⎟
⎠
7.1.2 Standardnormalverteilung N(z│0,1)
Standardisierung:
(130)
Z =
X − μ
σ
Dichtefunktion:
(131)
N ( z |0 ,1 )= ϕ ( z )=
Verteilungsfunktion:
(132)
φ ( z )=
1
2π
⎛ u2 ⎞
exp
⎜⎜ −
⎟⎟ d u
∫
⎝ 2 ⎠
− ∞
z
⋅
2
⎛
⎞
⋅ exp ⎜ − z ⎟ ( − ∞ < z < ∞ )
2π
⎝ 2 ⎠
1
Momenterzeugende Funktion:
⎛ 1
⎞
(133) m x ( t ) = exp ⎜ ⋅ t 2 ⎟
⎝ 2
⎠
- 21 Wichtige Beziehung:
⎛ X −μ ⎞
(134) F ( x ) = φ ⎜
⎟
⎝ σ
⎠
Symmetrische Fläche unter der Dichtefunktion:
z
⎛ u2 ⎞
1
(135)
ψ ( z )=
⋅ ∫ exp ⎜⎜ −
⎟⎟ d u
2 π −z
⎝ 2 ⎠
Es gelten folgende Beziehungen:
(136a)
(136b)
(136c)
φ( −z) = 1 − φ(z)
1
ψ(z)
+
φ(z) =
2
2
1⎞
⎛
ψ(z) = 2 ⎜ φ(z) −
⎟
⎝
2 ⎠
⎛ b−μ ⎞
⎛ a−μ ⎞
W ( a ≤ X ≤ b )= F ( b ) − F ( a )= φ ⎜
⎟ −φ ⎜
⎟
⎝ σ ⎠
⎝ σ ⎠
Kenngrößen:
(137)
(138a)
μ
(138b)
σ2
(138c)
σ
=
1
(138d)
γ
=
0
(138e)
ε
=
0
=
0
=
1
- 22 Wahrscheinlichkeiten der Standardnormalverteilung N(z∗0,1)
Werte der Verteilungsfunktion
Symetrische Intervallwahrscheinlichkeit
Es gilt: Φ(-z) = 1 - Φ(z)
Es gilt: ψ(z) = 2Φ(z) - 1
z
Φ(z)
ψ(z)
0,0
0,5000
0,0000
0,1
0,5398
0,0796
0,2
0,5793
0,1585
0,3
0,6179
0,2358
0,4
0,6554
0,3108
0,5
0,6915
0,3829
0,6
0,7257
0,4515
0,7
0,7580
0,5161
0,8
0,7881
0,5763
0,9
0,8159
0,6319
1,0
0,8413
0,6827
1,1
0,8643
0,7287
1,2
0,8849
0,7699
1,3
0,9032
0,8064
1,4
0,9192
0,8385
1,5
0,9332
0,8664
1,6
0,9452
0,8904
1,7
0,9554
0,9109
1,8
0,9641
0,9281
1,9
0,9713
0,9426
2,0
0,9772
0,9545
2,1
0,9821
0,9643
2,2
0,9861
0,9722
2,3
0,9893
0,9786
2,4
0,9918
0,9836
2,5
0,9938
0,9876
2,6
0,9953
0,9907
2,7
0,9965
0,9931
2,8
0,9974
0,9949
2,9
0,9981
0,9963
3,0
0,9986
0,9973
- 23 Häufig gebrauchte Werte:
7.1.3
Φ (z) = 0,975
Φ (z) = 0,95
→
→
z = 1,96
z = 1,65
ψ (z) = 0,90
ψ (z) = 0,95
ψ (z) = 0,975
ψ (z) = 0,99
→
→
→
→
z = 1,65
z = 1,96
z = 2,24
z = 2,58
Mehrdimensionale Normalverteilung N(x│μ, ∑)
(μ = Erwartungswert, ∑ = Varianz-Kovarianz-Matrix, T = Transposition)
Dichtefunktion: (139a)
N ( x | μ , Σ) =
f ( x )=
(
2π
)
n
1
⋅
det ∑
⎡ 1
⋅ exp ⎢− ⋅ ( x − μ ) T ⋅ ∑ − 1 ⋅ ( x − μ
⎣ 2
für x ∈ R n
⎛ σ 12 σ 1 2
⎛ μ1⎞
⎜
⎜ ⎟
⎜σ
⎜μ ⎟
2
⎜ 2 1 σ2
⎜ 2⎟
⎜ .
⎜ .⎟
.
μ = ⎜ ⎟ und ∑ = ⎜
mit
⎜ .
⎜ .⎟
.
⎜
⎜ ⎟
.
⎜ .
⎜ .⎟
⎜⎜
⎜⎜ ⎟⎟
⎝ μn⎠
⎝σ n 1 σ n 2
Momenterzeugende Funktion:
1
⎡ T
T
(139b)
m x ( t ) = exp ⎢ μ ⋅ x + ( x ⋅
2
⎣
(
7.2
)
.
.
.
.
.
.
.
.
.
σ 1 n⎞
⎟
. σ 2 n⎟
⎟
.⎟
⎟
.⎟
⎟
.
.⎟
⎟
. σ 2n ⎟⎠
⎤
∑ ⋅ x )⎥
⎦
Exponentialverteilung
(140a) Dichtefunktion:
(140b) Verteilungsfunktion:
(141a) Erwartungswert:
(141b) Varianz:
(141c)
f ( x ) = a e− a x
F(x) = 1 − e
1
μ =
a
1
σ2 =
a2
Momenterzeugende Funktion:
mx ( t ) =
(a > 0 ; x ≥ 0)
−a x
1
1 −
keine Reproduktivität
t
a
⎤
)⎥
⎦
- 24 7.3
Lineare Verteilungen
Verteilung
Gleichverteilung
(Rechtecksverteilung)
Dichtefunktion
Mittelwert/
Varianz
1
b − a
(a ≤ x ≤ b)
a+b
2
2
( b−a )
2
σ =
12
f (x) =
(142a)
linksschiefe
Dreiecksverteilung
f ( x )=
2 ⋅ ( x−a )
( b−a )
( a≤ x≤b )
2
(142b)
rechtsschiefe
Dreiecksverteilung
f ( x )=
2 ⋅ ( b−x )
( b−a )
( a≤ x≤b )
2
(142c)
Unimodale
symmetrische
Dreiecksverteilung
(142d)
μ=
( a+2 b )
3
( b − a )2
2
σ =
18
μ=
(2 a + b)
3
2
(b − a )
=
18
μ =
σ2
f ( x )=
⎧4 ⋅ ( x − a )
a +b ⎞
⎛
für ⎜ a ≤ x ≤
⎟
⎪
2
2 ⎠
⎝
⎪ ( b − a)
⎨
⎪ - 4 ⋅ ( x−b ) für ⎛⎜ a +b≤ x ≤ b⎞⎟
⎪ ( b−a )2
⎝ 2
⎠
⎩
a+b
2
( b − a )2
2
=
σ
24
μ=
f (x) =
Symmetrische
V - Verteilung
(142e)
a+ b ⎞
⎧- 4x + 2a + 2b
⎛
⎟
⎪ ( b − a )2 für ⎜⎝ a ≤ x ≤
2 ⎠
⎪
⎨
4x - 2a − 2b
⎛ a + b⎞
⎪
⎟
für ⎜
2
⎝ 2 ⎠
⎪⎩
(b− a)
( a+b )
2
( b − a )2
2
σ =
8
μ=
- 25 7.4
Testverteilungen
Verteilungsfunktionen werden zur Prüfung statistischer Hypothesen herangezogen. Die Verteilungen
sind tabelliert. Es handelt sich um unabhängige Zufallsvariablen.
7.4.1 χ2 - Verteilung
X1, X2, . . . , Xν seien standardnormalverteilt. Dann heißt
v
χ 2 = ∑ X i2
(143a)
i=1
χ2 - verteilt mit ν Freiheitsgraden [χ2 (ν)]
7.4.2 t - Verteilung (Student)
Ist X standardnormalverteilt und Y χ2(ν) - verteilt, so heißt
X
t=
(144)
1
⋅Y
v
t - verteilt mit ν Freiheitsgraden [t(ν)].
7.4.3 F - Verteilung (Snedecor)
Ist X χ2(ν1) - verteilt und Y χ2(ν2) - verteilt, so heißt
1
⋅ X
v
1
(145)
F=
1
⋅Y
v2
F - verteilt mit (ν1,ν2) Freiheitsgraden [F(ν1,ν2)].
8. Grenzwertsätze
8.1
8.2
Stochastische Konvergenz
Eine Zufallsvariable Xn strebt mit n → ∞ stochastisch gegen θ (wahrer Wert), wenn für jedes ε >
0 gilt:
(146)
lim P ( | X
n
− θ | < ε )= 1
n →∞
8.3
Tschebyscheff'sche Ungleichung
X sei eine Zufallsvariable, c eine gegebene Konstante, ε > 0.
(147)
P ( | X − c|≥ ε )≤
1
ε
2
⋅ E ( X − c )2
Spezialisierung c = μ: Abweichungen einer Zufallsvariablen von ihrem Mittelwert.
(148)
P (| X − μ |≥ ε )≤
σ2
ε2
- 26 Man drückt ε durch Vielfaches von σ aus: ε = tσ
1
P ( | X − μ |≥ t ⋅ σ )≤ 2
(149)
t
Umgeschrieben auf die Gegenwahrscheinlichkeit:
1
P ( | X − μ |< t ⋅ σ ) ≥ 1 − 2
(150)
t
8.3
Gesetz der großen Zahlen
Homograder Fall (qualitative Merkmale)
Theorem von Bernoulli
⎛ m
− p ≥ε
(151)
P ⎜⎜
⎝ n
(152)
⎞ p ⋅ q
⎟⎟ ≤
2
⎠ n ⋅ε
p ⋅ q
⎞
m
− p < ε ⎟⎟ ≥ 1 −
n
n ⋅ ε2
⎠
⎛
P ⎜⎜
⎝
für n → ∞ : Gesetz der großen Zahl
⎛ m
⎞
− p < ε ⎟⎟ = 1
(153)
P ⎜⎜
lim
n →∞
⎝ n
⎠
Heterograder Fall (quantitative Merkmale)
X1, X2, . . . , Xn seien identisch verteilte unabhängige Zufallsvariable (Stichprobe). Für den Mittelwert
der Stichprobe gilt:
1 n
(154)
Xn =
∑ Xi
n i=1
(155)
(156)
P ( X n − μ ≥ ε )≤
P(
σ2
n ⋅ ε2
2
σ
X n − μ < ε )≥ 1 −
n ⋅ ε2
für n → ∞ : Gesetz der großen Zahl
(157)
lim P (
n →∞
X n − μ < ε )= 1
Hauptsatz der mathematischen Statistik (Gliwenko):
Die empirische Verteilungsfunktion einer Stichprobe konvergiert mit wachsendem Stichprobenumfang
stochastisch gegen die Verteilungsfunktion der Grundgesamtheit.
- 27 8.4
Zentrale Grenzwertsätze
Grenzwertsatz von de Moivre, Laplace:
Approximation der Binomialverteilung durch die Normalverteilung
X −n ⋅ p
(158)
Z=
≅ N ( z |0 , 1 )
n ⋅ p ⋅ q
Zentraler Grenzwertsatz:
Unter sehr allgemeinen, praktisch immer erfüllten Bedingungen sind Summen und Durchschnitte
(Stichprobenmittelwerte) von unabhängigen Zufallsvariablen für große n angenähert normalverteilt.
Grenzwertsatz von Lindeberg - Levy:
X1, X2, . . . , Xn seien identisch verteilte unabhängige Zufallsvariable mit Mittelwert μ und Varianz
σ2:
X + X2 + . . . +Xn−n ⋅ μ
Z= 1
≅ N ( z |0 , 1 )
(159)
σ ⋅ n
− μ
Z= Xn
⋅ n ≅ N ( z |0 , 1 )
(160)
σ
Grenzwertsatz von Ljapunoff:
X1, X2, . . . , Xn seien beliebig verteilte unabhängige Zufallsvariable mit Mittelwerten μi und Varianz
σi2:
n
x i − μi
(161)
Z= ∑
≅ N ( z |0 , 1 )
i=1
∑σ
2
i
i
Folgerungen aus dem zentralen Grenzwertsatz:
1. Für große n und nicht zu kleine Werte von p (oder) q ( Als Faustregel gilt: npq > 4 −
brauchbare Näherung, npq > 9 ∼ gute Näherung;) kann die Binomialverteilung durch eine
Normalverteilung approximiert werden (Grenzwertsatz von de Moivre, Laplace).
2. Für große n und kleine Auswahlsätze n/N läßt sich die hypergeometrische Verteilung durch eine
Normalverteilung approximieren.
3. Für λ > 4 (brauchbare Näherung) oder λ > 9 (gute Näherung) läßt sich die Poisson - Verteilung
durch eine Normalverteilung approximieren.
X −λ
Z=
≅ N ( z |0 , 1 )
(162)
λ
4. Für Summen und Durchschnitte von Variablen (Stichprobenmittelwerte) gilt, daß diese bei genügend
großem n (n > 30) annähernd normalverteilt sind, gleichqültig, aus welcher Ausgangsverteilung
sie stammen.
- 28 -
9. Grundlagen der Schätztheorie
9.1
Punktschätzungen
N = Umfang der Grundgesamtheit; n = Umfang der Stichprobe
Homograder Fall: (Qualitative Merkmale)
Grundgesamtheit: Urne mit zweierlei Kugeln, weiß und schwarz (O,1 - Variable).
M
(163) P =
= Anteilsatz in der Grundgesamtheit
N
m
(164) p =
= Anteilsatz in der Stichprobe
n
(165) σ 2 = P ⋅ Q = P ( 1 − P ) = Varianz der Grundgesamtheit
n⋅ p ⋅q
= Varianz der Stichprobe
(166) s 2 =
n −1
Heterograder Fall: (Quantitative, diskrete Merkmale)
Grundgesamtheit: Urne mit Kugeln auf denen zahlenmäßige Merkmalsausprägungen vemerkt sind.
Mittelwert und Varianz der Grundgesamtheit
k
N
(167)
μ=
∑x
(168)
bzw. μ =
i=1
N
N
σ =
2
i
∑
∑x
i
⋅ Ni
i=1
N
k
∑ ( x −μ )
( x i − μ )2
2
i
bzw. σ =
2
i=1
N
⋅ Ni
i=1
N
Mittelwert und Varianz der Stichprobe
k
n
(169)
∑x
x=
i
bzw. x =
i=1
n
∑x
i
⋅ ni
i=1
n
n
k
∑( x −x )
∑( x −x )
2
2
i
(170)
2
s =
i=1
i
2
n −1
bzw. s =
i=1
n −1
⋅ ni
- 29 Varianz der Stichprobenmittelwerte
Homograder Fall:
P ⋅ Q N −n
⋅
n
N −1
P ⋅Q
=
n
(171)
Var ( P ) = σ 2P =
(172)
Var ( P ) = σ 2P
(Fall ohne Zurücklegen)
(Fall mit Zurücklegen)
Heterograder Fall:
(173)
(174)
( )=
Var ( X ) =
Var X
σ
2
X
=
σ2 ⋅ N −n
n
(Fall ohne Zurücklegen)
N −1
σ2
σ 2X =
(Fall mit Zurücklegen)
n
Schätzwerte der Varianz der Stichprobenmittelwerte
(Wenn nicht alle möglichen Stichprobenmittelwerte vorliegen)
Homograder Fall:
p ⋅ q N −n
⋅
n −1
N
p ⋅q
=
n −1
(175)
var ( p ) = σˆ 2p =
(Fall ohne Zurücklegen)
(176)
var ( p ) = σˆ 2p
(Fall mit Zurücklegen)
Heterograder Fall:
(177)
(178)
9.2
( )=
var ( x ) =
var x
2
N −n
s
⋅
σˆ 2x =
(Fall ohne Zurücklegen)
σˆ 2x
(Fall mit Zurücklegen)
n
2
s
=
n
N
Kriterien für Punktschätzungen (Kriterien guter Schätzfunktionen)
9.2.1.Konsistenz
Bei zunehmendem Stichprobenumfang n strebt der Schätzwert θ$n stochastisch gegen den
wahren Wert θ.
(179a)
lim P θˆn − θ < ε = 1
(
lim P (
n →∞
(179b) z.B.:
n →∞
)
X n − μ < ε )= 1
- 30 9.2.2 Erwartungstreue
Der Durchschnitt aller Stichprobenmittelwerte ergibt den wahren Wert:
(180a)
E θ$
= θ
(180b) z.B.:
( )
E( X )
(180c) z.B.:
E( S
(180d) z.B.:
E ( S2
)
2
)
μ
=
=
=
σ2
(im Fall mit Zurücklegen)
N
⋅ σ2
N −1
(im Fall ohne Zurücklegen)
9.2.3 Effizienz
Von zwei erwartungstreuen Schätzfunktionen heißt diejenige effizienter, die die kleinere Varianz
besitzt. θ$1 heißt effizienter als θ$2 , wenn gilt:
(181)
( )
Var ( θˆ1 ) < Var θˆ2
9.2.4 Asymptotische Normalverteilung
Strebt die Verteilung der Schätzwerte θ$n für großen Stichprobenumfang n gegen die
Normalverteilung so erhält man asymptotisch normalverteilte Schätzwerte. Bei großem n
verteilen sich z.B. die Stichprobenmittelwerte asymptotisch normal.
9.2.5 Suffizienz
Gegebene Stichprobe schöpft alle relevanten Informationen aus.
9.3
Intervallschätzungen
Fall:
Inklusionsschluß (direkter Schluß)
Für den Anteilssatz in der Stichprobe:
Homograder
Fall
a) ohne Zurücklegen
P ⋅Q
N −n
P ⋅Q
N −n
(182) P − z ⋅
⋅
≤ p ≤ P+ z ⋅
⋅
n
N −1
n
N −1
(183) P − z ⋅
b) mit Zurücklegen
P ⋅Q
≤ p ≤ P+ z ⋅
n
P ⋅Q
n
Für den Stichprobenmittelwert:
Heterograder
Fall
a) ohne Zurücklegen
σ
σ
N −n
N −n
(184) μ − z ⋅
⋅
≤ x ≤ μ+z⋅
⋅
N −1
N− 1
n
n
b) mit Zurücklegen
(185) μ − z ⋅
σ
n
≤ x ≤ μ+z ⋅
σ
n
- 31 Fall:
Repräsentationsschluß (indirekter Schluß)
Für den Anteilssatz in der Grundgesamtheit:
Homograder
Fall
a) ohne Zurücklegen
N −n
p⋅q
(186) p − z ⋅
⋅
≤ P ≤ p+ z ⋅
n −1
N
(187) p − z ⋅
p ⋅ q
N −n
⋅
n −1
N
b) mit Zurücklegen
p ⋅ q
≤ P ≤ p+ z ⋅
n −1
p ⋅ q
n −1
Für den Mittelwert der Grundgesamtheit:
Heterograder
Fall
(188) x − z ⋅
a) ohne Zurücklegen
N −n
s
⋅
≤ μ ≤ x+ z ⋅
N
n
s
N −n
⋅
N
n
b) mit Zurücklegen
s
≤ μ ≤ x+ z ⋅
(189) x − z ⋅
n
s
n
Bemerkungen:
1. Die zugehörige Konfidenzwahrscheinlichkeit ist jeweils:
z
1
⎛ u2 ⎞
ψ ( z )=
⋅ exp ⎜⎜ −
⎟⎟ d u = ( 1 − α ) ⋅ 100 %
2 π −∫z
⎝ 2 ⎠
N− n
N − n
n
2. Der Korrekturfaktor für die Varianz
tritt nur im Fall ohne
= 1 −
≈
N − 1
N
N
Zurücklegen auf. Wird er im Fall ohne Zurücklegen vernachlässigt, so ergeben sich größere
Vertrauensintervalle (d.h. schlechtere Abschätzungen). Für n/N ≤ 0,05 kann der Korrekturfaktor
auch im Fall ohne Zurücklegen durch 1 ersetzt werden.
9.4
Schätzfehler, Intervallänge und Stichprobenverlauf
Der Schätzfehler ist definiert:
Heterograder Fall:
(190)
e = z ⋅ σx
Homograder Fall:
(191)
e = z ⋅ σp
wobei für σ x bzw. σ p die Formeln (171) bis (174) gelten.
- 32 Relativer Fehler = relative Genauigkeit
Homograder Fall ohne Zurücklegen:
(192)
er =
e
= z ⋅
P
Q
N −n
⋅
n ⋅ P N −1
Heterograder Fall ohne Zurücklegen:
er =
(193)
e
μ
= z ⋅
2
N −n
V
⋅
n
N −1
⎛
σ
⎜⎜ V =
= Variations koeffizient
μ
⎝
⎞
⎟⎟
⎠
Auflösung nach n ergibt die Formeln für den notwendigen Stichprobenumfang. Bei Vernachlässigung
des Korrekturfaktors vereinfachen sich die Formeln.
Formeln für den notwendigen Stichprobenumfang
Fall:
ohne Korrekturfaktor
mit Korrekturfaktor*
Homograd:
Absoluter Fehler
e vorgegeben
(194) n ≥
2
z ⋅P⋅Q
2
e
Relativer Fehler
er vorgegeben
(196) n ≥
2
z ⋅Q
2
er ⋅ P
Absoluter Fehler
e vorgegeben
(198) n ≥
2
2
z ⋅σ
2
e
(199) n ≥
Relativer Fehler
er vorgegeben
(200) n ≥
2
2
z ⋅V
2
er
(201) n ≥
(195)
n ≥
(197) n ≥
⎛
⎜⎜
⎝
⎛
⎜⎜
⎝
N
N ⋅ e2
1+ 2
z ⋅ P ⋅Q
N
N ⋅ e 2r ⋅ P
1+
2
z ⋅Q
⎞
⎟⎟
⎠
Heterograd:
*
⎛
⎜⎜
⎝
N
N ⋅ e2
1+ 2
2
z ⋅σ
⎞
⎟⎟
⎠
⎛
⎜⎜
⎝
N
N ⋅ e2r
1+ 2
2
z ⋅V
⎞
⎟⎟
⎠
Bei mit Korrekturfaktor wird der Einfachheit halber N - 1 ≈ N gesetzt.
Da PQ, σ2 bzw. Q/P, V2 unbekannt sind, müssen sie möglichst ungünstig (d.h. durch
Maximalwerte) abgeschätzt werden.
⎞
⎟⎟
⎠
- 33 -
10. Testtheorie
10.1
Fehlerarten und Entscheidungsregeln
Fehler 1. Art
H0 wird verworfen, obwohl die Hypothese richtig ist. (Wahrscheinlichkeit des Fehlers = α bzw.
Signifikanzniveau des Tests)
Fehler 2. Art
H0 wird angenommen, obwohl die Hypothese falsch ist. (Wahrscheinlichkeit des Fehlers = β ;
1 - β = Güte des Tests)
Die Entscheidungsregel besagt:
Ist die Teststatistik T , die aus der gegebenen Stichprobe errechnet wurde, kleiner als der kritische
Wert bei gegebenem Signifikanzniveau α , dann behält man die Nullhypothese H0 bei, also bei
(202)
| T |
≤
t ( α ) bzw. F ( α ) bzw.
χ 2 ( α ) bzw. z
Ist dagegen
(203)
| T |
>
t ( α ) bzw. F ( α ) bzw.
χ 2 ( α ) bzw. z
wird die Nullhypothese verworfen.
10.2
Unterschied bei Anteilssätzen und Mittelwerten
10.2.1
Ein - Stichproben - Problem
Homograder Fall (Anteilsätze):
Stichprobenumfang n, Anteilsatz p
(204)
1. P > P0
H 0 : P = P0 ; H 1 : 2. P ≠ P0
3. P < P0
T=
p − P0
P0 ⋅ ( 1 − P0
)
⋅
n
- 34 Heterograder Fall (Mittelwerte):
Stichprobenumfang n, Anteilsatz x
(205)
1. μ > μ 0
H 0 : μ = μ 0 ; H 1 : 2. μ ≠ μ 0
3. μ < μ 0
T=
x − μ0
s
⋅
n
Die Testgröße T ist bei kleinem Stichprobenumfang t - verteilt, mit
ν = n - 1
Freiheitsgraden und bei großem Stichprobenumfang (n > 30) standardnoralverteilt.
10.2.2
Zwei - Stichproben - Problem (σ - Differenz - Verfahren)
Homograder Fall:
Stichprobe 1: n1, p1; Stichprobe 2: n2, p2:
(206)
1. P1 > P 2
H 0 : P1 = P 2 ; H 1 : 2. P1 ≠ P 2
3. P1 < P 2
T=
mit
(207)
p ⋅ ( 1 − p )=
p1 − p 2
⎛ 1 1
p ⋅ ( 1 − p ) ⋅ ⎜⎜ +
⎝ n1 n 2
⎞
⎟⎟
⎠
n1 ⋅ p 1 ⋅ ( 1 − p 1 ) + n 2 ⋅ p 2 ⋅ ( 1 − p 2
n1 + n 2 − 2
)
- 35 Heterograder Fall:
Stichprobe 1: n1 , x1 , s12 Stichprobe 2: n2 , x 2 , s22
(208)
1. μ 1 > μ 2
H 0 : μ 1 = μ 2 ; H 1 : 2. μ 1 ≠ μ 2
3. μ 1 < μ 2
T=
x1 − x 2
⎛ 1 1 ⎞
2
⎟⎟
s ⋅ ⎜⎜ +
⎝ n1 n 2 ⎠
mit
( n1 − 1 ) ⋅ s12 + ( n 2 − 1 ) ⋅ s 22
n1 + n 2 − 2
Die Testgröße T ist bei kleinem Stichprobenumfang t - verteilt, mit
ν = n1 + n2 - 2
Freiheitsgraden und bei großem Stichprobenumfang (n > 30) standardnormalverteilt.
(209)
10.3
2
s =
Prüfung anderer Parameter
10.3.1
Unterschied der Varianzen
a) Ein - Stichprobenproblem
Stichprobe: n , s:
(210)
1. σ > σ 0
H 0 : σ = σ 0 ; H 1 : 2. σ ≠ σ 0
3. σ < σ 0
T=
( n - 1 ) ⋅ s2
σ 02
Die Testgröße T ist χ2 - verteilt mit ν = n - 1 Freiheitsgraden.
- 36 b) Zwei - Stichprobenproblem
Stichprobe 1: n1 , s12
(211)
Stichprobe 2:
H0 : σ 1 = σ 2 ;
s12
T = 2
s2
( bei
Die Testgröße T ist F - verteilt mit
10.3.2
n2 , s22
H1 : σ 1 > σ 2
s1 > s2
)
ν1 = n1 - 1 und ν2 = n2 - 1 Freiheitsgraden.
Abweichung des Korrelationskoeffizienten von 0
Korrelationskoeffizient einer Stichprobe mit Umfang n :
(212)
H0 : ρ =0 ;
T=
r
s
H1 : ρ ≠0
r=
mit
sx y
sx ⋅ sy
2
s =
1 - r2
n-2
Die Testgröße T ist t - verteilt mit ν = n - 2 Freiheitsgraden.
11. Nichtparametrische Testverfahren
11.4
χ2 -Test
11.4.1
Anpassungstest
Test auf Übereinstimmung zwischen gegebener empirischer Häufigkeitsverteilung und
theoretischer Verteilung
i = 1 , .... k = Merkmale bzw. Klassen
ni = empirisch beobachtete Werte (absolute Häufigkeiten)
ei = n f(xi) = theoretisch erwartete Werte im diskreten Fall
ei = n ΔFi(x) = theoretisch erwartete Werte im stetigen Fall
wobei:
(213)
k
k
∑ n = ∑ e =n
i
i=1
i
i=1
H1 : F ( x ) ≠ F 0 ( x )
H0 : F ( x ) = F 0 ( x ) ;
k
T =
∑
i = 1
(
ni − ei
ei
)2
ni2
= ∑
− n
i = 1 ei
k
Die Testgröße T ist χ2 - verteilt mit ν = k - 1 Freiheitsgraden.
- 37 -
11.4.2
Unabhängigkeitstest zwischen zwei Variablen X , Y
Test auf Übereinstimmung zwischen empirisch beobachteten Häufigkeiten
nij (i = 1, ..., k; j = 1, ..., l) und den theoretisch erwarteten Häufigkeiten eij, die eintreffen würden,
wenn X und Y unabhängig wären.
Unabhängigkeitsannahme: fij = fi..f.j
nij = empirisch beobachtete Häufigkeiten
eij = n.fi..f.j = 1/n.(ni..n.j) = theoretisch erwartete Häufigkeiten
(214)
H 0 : Die zwei Variablen sind unabhängig
Die zwei Variablen sind abhängig
H1 :
k
l
i = 1
j = 1
∑ ∑
T =
(n
i j
− ei j
)
2
ei j
Die Testgröße T ist χ2 - verteilt mit ν = (k - 1)(l - 1) Freiheitsgraden.
Spezialfall:
Es treten nur zwei Klassifikationen für die beiden Variablen auf:
i = 1, 2; j = 1, 2
Dadurch reduziert sich die Kontigenztafel auf eine Vierfeldertafel:
(215) T =
j=1
j=2
fi.
i=1
a
b
a+b
i=2
c
d
c+d
f.j
a+c
b+d
a+b+c+d
=n
( a ⋅ d − b ⋅ c )2 ⋅ n
( a+b ) ⋅ ( a+c ) ⋅ ( b+ d ) ⋅ ( c+ d )
Die Testgröße T ist χ2 - verteilt mit ν = 1 Freiheitsgraden.
11.4.3
Kolmogorov-Smirnov –Test
(216) T =
sup F ( x ) − F
i
x
0
( xi )
- 38 11.4.4
Mann-Whitney-U-Test
(217) T = n1 ⋅ n2 +
n1(n1 + 1)
− R1
2
Die Testgröße T ist U-verteilt. Sie geht bei n1 > 10 und n2 > 10 in eine Normalverteilung mit
denselben Parameter über.
11.4.5
Kruskall-Wallis-Test
k
⎛ R2 ⎞
12
(218) T =
⋅ ∑ ⎜⎜ i ⎟⎟ − 3 ⋅ (n + 1)
n ⋅ (n + 1) i =1 ⎝ ni ⎠
Die Testgröße T ist h-verteilt. Sie geht bei ni > 5 in eine χ2-Verteilung mit. ν = k − 1
Freiheitsgraden über.
11.4.6
McNemar-Test
+
a
c
+
-
b
d
(219) Bei n ≤ 20 : T = b
Die Testgröße T ist binomialverteilt mit p 0 = 0,5 und n = c + b
(220) Bei n > 20 : T =
(b − c) 2
b+c
Die Testgröße T ist χ2-verteilt mit ν = 1 Freiheitsgrad.
11.4.7
Cochrans Q-Test
2
Y⎞
⎛
l (l − 1)∑ ⎜ y⋅ j − ⎟
(l − 1)(l ∑ Y⋅ 2j − Y 2 )
l⎠
⎝
(221) Bei T =
=
l ⋅ Y − ∑ Yi ⋅2
∑ Yi⋅ (l − Yi⋅ )
Die Testgröße T ist χ2-verteilt mit ν = (l − 1) Freiheitsgraden.
11.4.8
Wilcoxon-Test
(222) T = ∑ Ri (+ )
11.4.8
Friedman-Test
(223) T =
l
12
R 2j − 3n(l + 1)
∑
n ⋅ l ⋅ (l + 1) j =1
Die Testgröße T ist χ2-verteilt mit ν = (l − 1) Freiheitsgraden (für n ≥ 10 und l ≥ 4 ).
- 39 Kritische Werte t(α) der t-Verteilung für verschiedene α
Signifikanzniveau α
(Zweiseitige Fragestellung)
Zahl der Freiheitsgrade u
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
35
40
50
60
80
100
500
1000
∞
Zahl der Freiheitsgrade u
0,10
6,314
2,920
2,353
2,132
2,015
1,943
1,895
1,860
1,833
1,812
1,796
1,782
1,771
1,761
1,753
1,746
1,740
1,734
1,729
1,725
1,721
1,717
1,714
1,711
1,708
1,706
1,703
1,701
1,699
1,697
1,690
1,684
1,676
1,671
1,664
1,660
1,648
1,646
1,645
0,05
12,706
4,303
3,182
2,776
2,571
2,447
2,365
2,306
2,262
2,228
2,201
2,179
2,160
2,145
2,131
2,120
2,110
2,101
2,093
2,086
2,080
2,074
2,069
2,064
2,060
2,056
2,052
2,048
2,045
2,042
2,030
2,021
2,008
2,000
1,990
1,984
1,965
1,962
1,960
0,01
63,657
9,925
5,841
4,604
4,032
3,707
3,499
3,355
3,250
3,169
3,106
3,055
3,012
2,977
2,947
2,921
2,898
2,878
2,861
2,845
2,831
2,819
2,807
2,797
2,787
2,779
2,771
2,763
2,756
2,750
2,724
2,704
2,678
2,660
2,638
2,626
2,586
2,581
2,576
0,050
0,025
0,005
Signifikanzniveau α
(einseitige Fragestellung)
- 40 Ausgewählte Werte der χ2-Verteilung
(für ν = 1, ... Freiheitsgrade und gegebene α-Werte)
Zahl der
Freiheitsgrade ν
α
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
40
50
60
70
80
90
100
0,99
0,00
0,02
0,11
0,30
0,55
0,87
1,24
1,65
2,09
2,56
3,05
3,57
4,11
4,66
5,23
5,81
6,41
7,01
7,63
8,26
8,90
9,54
10,20
10,86
11,52
12,20
12,88
13,56
14,26
14,95
22,16
29,71
37,48
45,44
53,54
61,75
70,06
0,95
0,00
0,10
0,35
0,71
1,14
1,64
2,17
2,73
3,32
3,94
4,57
5,23
5,89
6,57
7,26
7,96
8,67
9,39
10,12
10,85
11,59
12,34
13,09
13,85
14,61
15,38
16,15
16,93
17,71
18,49
26,51
34,76
43,19
51,74
60,39
69,13
77,93
χ2(α)
0
Signifikanzniveau α
0,90
0,02
0,21
0,58
1,06
1,61
2,20
2,83
3,49
4,17
4,86
5,58
6,30
7,04
7,79
8,55
9,31
10,08
10,86
11,65
12,44
13,24
14,04
14,85
15,66
16,47
17,29
18,11
18,94
19,77
20,60
29,05
37,69
46,46
55,33
64,28
73,29
82,36
0,10
2,70
4,60
6,25
7,78
9,24
10,64
12,02
13,36
14,68
15,99
17,28
18,55
19,81
21,06
22,31
23,54
24,77
25,99
27,20
28,41
29,62
30,81
32,01
33,20
34,38
35,56
36,74
37,92
39,09
40,26
51,80
63,17
74,40
85,53
96,58
107,56
118,50
0,05
3,84
5,99
7,81
9,49
11,07
12,59
14,07
15,51
16,92
18,31
19,68
21,03
22,36
23,68
25,00
26,30
27,59
28,87
30,14
31,41
32,67
33,92
35,17
36,42
37,65
38,88
40,11
41,34
42,56
43,77
55,76
67,50
79,08
90,53
101,88
113,14
124,34
0,01
6,63
9,21
11,34
13,28
15,09
16,81
18,48
20,09
21,67
23,21
24,72
26,22
27,69
29,14
30,58
32,00
33,41
34,80
36,19
37,57
38,93
40,29
41,64
42,98
44,31
45,64
46,96
48,28
49,59
50,89
63,69
76,15
88,38
100,42
112,33
124,12
135,81
- 41 -
Kritische Werte F(α) der F-Verteilung
(ν1 = Freiheitsgrade der größeren Varianz)
(α = 0,01)
α
0
ν1
F(α)
3
4
5
6
7
8
9
10
12
15
20
30
40
60
∞
3
29,5
28,7
28,2
27,9
27,7
27,5
27,4
27,2
27,0
26,9
26,7
26,5
26,4
26,3
26,1
4
16,7
16,0
15,5
15,2
15,0
14,8
14,7
14,6
14,4
14,2
14,0
13,8
13,8
13,6
13,5
5
12,0
11,4
11,0
10,7
10,5
10,3
10,2
10,0
9,9
9,7
9,6
9,4
9,3
9,2
9,0
6
9,8
9,2
8,8
8,5
8,3
8,1
8,0
7,9
7,7
7,6
7,4
7,2
7,1
7,1
6,9
7
8,4
7,9
7,5
7,2
7,0
6,8
6,7
6,6
6,5
6,3
6,2
6,0
5,9
5,8
5,6
8
7,6
7,0
6,6
6,4
6,2
6,0
5,9
5,8
5,7
5,5
5,4
5,2
5,1
5,0
4,9
9
7,0
6,4
6,1
5,8
5,6
5,5
5,4
5,3
5,1
5,0
4,8
4,6
4,6
4,5
4,3
10
6,6
6,0
5,6
5,4
5,2
5,1
4,9
4,8
4,7
4,6
4,4
4,2
4,2
4,1
3,9
11
6,2
5,7
5,3
5,1
4,9
4,7
4,6
4,5
4,4
4,2
4,1
3,9
3,9
3,8
3,6
12
6,0
5,4
5,1
4,8
4,6
4,5
4,4
4,3
4,2
4,0
3,9
3,7
3,6
3,5
3,4
13
5,7
5,2
4,9
4,6
4,4
4,3
4,2
4,1
4,0
3,8
3,7
3,5
3,4
3,3
3,2
14
5,6
5,0
4,7
4,5
4,3
4,1
4,0
3,9
3,8
3,7
3,5
3,4
3,3
3,2
3,0
15
5,4
4,9
4,6
4,3
4,1
4,0
3,9
3,8
3,7
3,5
3,4
3,2
3,1
3,0
2,9
16
5,3
4,8
4,4
4,2
4,0
3,9
3,8
3,7
3,6
3,4
3,3
3,1
3,0
2,9
2,8
17
5,2
4,7
4,3
4,1
3,9
3,8
3,7
3,6
3,5
3,3
3,2
3,0
2,9
2,8
2,6
18
5,1
4,6
4,2
4,0
3,8
3,7
3,6
3,5
3,4
3,2
3,1
2,9
2,8
2,7
2,6
19
5,0
4,5
4,2
3,9
3,8
3,6
3,5
3,4
3,3
3,2
3,0
2,8
2,8
2,7
2,5
20
4,9
4,4
4,1
3,9
3,7
3,6
3,5
3,4
3,2
3,1
2,9
2,8
2,7
2,6
2,4
25
4,7
4,2
3,8
3,6
3,5
3,3
3,2
3,1
3,0
2,8
2,7
2,5
2,4
2,4
2,2
30
4,5
4,0
3,7
3,5
3,3
3,2
3,2
3,0
2,8
2,7
2,6
2,4
2,3
2,2
2,0
40
4,3
3,8
3,5
3,3
3,1
3,0
3,0
2,8
2,7
2,5
2,4
2,2
2,1
2,0
1,8
60
4,1
3,6
3,3
3,1
3,0
2,8
2,8
2,6
2,5
2,4
2,2
2,0
1,9
1,8
1,6
120
4,0
3,5
3,2
3,0
2,8
2,7
2,6
2,5
2,3
2,2
2,0
1,9
1,8
1,7
1,4
∞
3,8
3,3
3,0
2,8
2,6
2,5
2,4
2,3
2,2
2,0
1,9
1,7
1,5
1,5
1
ν2
- 42 Werte der Verteilungsfunktion binomialverteilter Variablen für p = 0,5 und p = 0,1 sowie
verschiedene n.
n
x
p = 0,5
p = 0,1
5
10
15
18
20
15
20
0
0,031
0,001
0,000
0,000
0,000
0,206
0,122
1
0,187
0,011
0,000
0,000
0,000
0,549
0,392
2
0,500
0,055
0,004
0,001
0,000
0,816
0,677
3
0,813
0,172
0,018
0,004
0,001
0,944
0,867
4
0,969
0,377
0,059
0,015
0,006
0,987
0,957
5
1,00
0,623
0,151
0,048
0,021
0,998
0,989
6
0,828
0,304
0,119
0,058
1,000
0,998
7
0,945
0,500
0,240
0,132
1,000
1,000
8
0,989
0,696
0,407
0,252
1,000
1,000
9
0,999
0,849
0,593
0,412
1,000
1,000
10
1,000
0,941
0,760
0,588
1,000
1,000
11
0,982
0,881
0,748
1,000
1,000
12
0,996
0,952
0,868
1,000
1,000
13
1,000
0,985
0,942
1,000
1,000
14
1,000
0,996
0,979
1,000
1,000
15
1,000
0,999
0,994
1,000
1,000
16
1,000
0,999
1,000
1,000
17
1,000
1,000
1,000
1,000
18
1,000
1,000
1,000
1,000
19
1,000
1,000
1,000
20
1,000
1,000
1,000
- 43 Kritische Werte bei einem zweiseitigen Mann-Whitney-Test (auch U-Test) für (α = 0,05) (die
obere Reihe in einer Zeile gibt den kritischen Wert an der Untergrenze tu, die untere Reihe an
der Obergrenze to an).
m
n
2
3
4
5
6
7
8
9
10
11
12
2
-
-
-
-
-
-
1
15
1
17
1
19
1
21
2
22
3
-
-
-
1
14
2
16
2
19
3
21
3
24
4
26
4
29
5
31
4
-
-
1
15
2
18
3
21
4
24
5
27
5
31
6
34
7
37
8
40
5
-
1
14
2
18
3
22
4
26
6
29
7
33
8
37
9
41
10
45
12
48
6
-
2
16
3
21
4
26
6
30
7
35
9
39
11
43
12
48
14
52
15
57
7
-
2
19
4
24
6
29
7
35
9
40
11
45
13
50
15
55
17
60
19
65
8
1
15
3
21
5
27
7
33
9
39
11
45
14
50
16
56
18
62
20
68
23
73
9
1
17
3
24
5
31
8
37
11
43
13
50
16
56
18
63
21
69
24
75
27
81
10
1
19
4
26
6
34
9
41
12
48
15
55
18
62
21
69
24
76
27
83
30
90
11
1
21
4
29
7
37
10
45
14
52
17
60
20
68
24
75
27
83
31
90
34
98
12
2
22
5
31
8
40
12
48
15
57
19
65
23
73
27
81
30
90
34
96
38
106
- 44 Kritische Werte bei einem zweiseitigen Wilcoxon-Test (die obere Reihe in einer Zeile gibt den
kritischen Wert an der Untergrenze tu, die untere Reihe an der Obergrenze to an).
n
Signifikanzniveau α
0,01
0,05
0,1
5
-
-
1
14
6
-
20
7
-
8
n
Signifikanzniveau α
0,01
0,05
0,1
15
16
104
26
94
31
89
3
18
16
20
116
30
106
36
100
3
25
4
24
17
24
129
35
118
42
111
1
35
4
32
6
30
18
28
143
41
130
48
123
9
2
43
6
39
9
36
19
33
157
47
143
54
136
10
4
51
9
46
11
44
20
38
172
53
157
61
149
11
6
60
11
55
14
54
21
43
188
59
172
68
163
12
8
70
14
64
18
60
22
49
204
66
167
76
177
13
10
81
18
73
22
69
23
55
221
74
202
84
192
14
13
92
22
83
26
79
24
62
238
82
218
92
208
25
69
256
90
235
101
224
- 45 Annahmekennzahlen c0 zum Kolmogorov-Smirnov-Test für n > 35
Signifikanzniveau α
0,1
1
Annahmekennzahl c0
n
0,05
1
1,224
n
0,01
1,358
1
n
0,001
1
1,628
n
1,949
Annahmekennzahlen c0 zum Kolmogorov-Smirnov-Test für n ≤ 35. Für kleine Stichproben
sind die Werte in Abhängigkeit von n und α wie folgt tabelliert:
n
α=0,1 α=0,05
n
α=0,1 α=0,05
n
α=0,1 α=0,05
n
α=0,1 α=0,05
3
0,636
0,708
13
0,325
0,361
23
0,247
0,275
33
0,208
0,231
4
0,565
0,624
14
0,314
0,349
24
0,242
0,269
34
0,205
0,227
5
0,509
0,563
15
0,304
0,338
25
0,238
0,264
35
0,202
0,224
6
0,468
0,519
16
0,295
0,327
26
0,233
0,259
36
0,199
0,221
7
0,436
0,483
17
0,286
0,318
27
0,229
0,254
37
0,196
0,218
8
0,410
0,454
18
0,278
0,309
28
0,225
0,250
38
0,194
0,215
9
0,387
0,430
19
0,271
0,301
29
0,221
0,246
39
0,191
0,213
10
0,369
0,409
20
0,265
0,294
30
0,218
0,242
40
0,189
0,210
11
0,352
0,391
21
0,259
0,287
31
0,214
0,238
50
0,170
0,188
12
0,388
0,375
22
0,253
0,281
32
0,221
0,234
100
0,121
0,134
Herunterladen