Statistik - Manfred Gruber

Werbung
Statistik
c
Manfred
Gruber, Hochschule München
Version vom 2. April 2008
1
1
WAS IST STATISTIK?
1
1.1
2
Was ist Statistik?
Eine wissenschaftliche Methode
Statistik ist die wissenschaftliche Methode, die Aussagen über statistische Gesamtheiten auf der Grundlage von Zählungen oder Messungen
der Merkmalsausprägungen ihrer Elemente macht. Eine ausführlichere Definition der Statistik, insbesondere der schließenden (inferentiellen) Statistik als wissenschaftliche Disziplin, findet man z.B. in [1].
1.2
Gegenstand der schließenden Statistik
Gegenstand der schließenden (induktiven, inferentiellen) Statistik, mit
der wir uns in dieser Vorlesung befassen, sind statistische Gesamtheiten, (statistische Massen, Kollektive, Populationen). Die Elemente einer
statistischen Gesamtheit sind durch definierende Eigenschaften eindeutig festgelegt und tragen gemeinsame Merkmale. Sie haben bezüglich dieser Merkmale eine bestimmte Ausprägung. In der schließenden Statistik wird von der Auswertung einer echten Teilmenge der
statistischen Gesamtheit, einer Stichprobe, auf Eigenschaften der statistischen Gesamtheit geschlossen (Testtheorie, Schätztheorie). Solche
Schlüsse sind mit Unsicherheit behaftet. Diese Unsicherheit wird mit
Hilfe der Wahrscheinlichkeitstheorie abgeschätzt und durch geeignete
Vorgehensweisen möglichst gering gehalten.
Eine ausgezeichnete Referenz für den Statistikanwender ist [2].
2
2.1
Merkmale
Messbarkeitseigenschaften von Merkmalen
Die Ausprägungen (Werte) eines Merkmals können einer Nominalskala, einer Ordinalskala oder einer Kardinalskala entstammen. Bei einer Nominalskala sind die Werte nicht geordnet (qualitatives Merkmal).
Bei einer Ordinalskala (Rangskala) sind die Werte nach einem sachlichen Kriterium geordnet, Größenverhältnisse zwischen den Werten
sind nicht gegeben oder bedeutungslos. Bei einer Kardinalskala (metrische Skala) sind die Werte reelle Zahlen und die Größenverhältnisse
haben Aussagekraft (quantitatives Merkmal). Wenn nicht ausdrücklich
etwas anderes gesagt wird, soll stets angenommen werden, dass eine
Kardinalskala vorliegt.
2.2
Diskrete und stetige Merkmale
Ein diskretes Merkmal kann nur isolierte Zahlenwerte und darüber hinaus keine weiteren Zwischenwerte annehmen. Ein stetiges Merkmal
kann (theoretisch) ein Kontinuum von Werten, also alle Werte eines
Intervalls der reellen Zahlen annehmen. Auch Stichprobenauswertungen von stetigen Merkmalen liefern in der Regel wegen der begrenzten
Messgenauigkeit isolierte Werte als Merkmalsausprägungen.
3
HÄUFIGKEITEN
3
3.1
3
Häufigkeiten
Absolute und relative Häufigkeit (1)
Eine statistische Erhebung liefert eine endliche Folge y1 , . . . , yn von Werten, nämlich die der Reihe nach gemessenen Merkmalsausprägungen
der untersuchten Elemente der statistischen Gesamtheit. Im Falle eines diskreten Merkmals mit wenig verschiedenen möglichen Werten
x1 , . . . , xm bestimmt man zu jedem xi durch Zählung der yj , die mit xi
übereinstimmen, die absolute Häufigkeit
ni = #{j|yj = xi }
(# . . . bedeutet “Anzahl der Elemente der Menge . . .”) und die relative
Häufigkeit
ni
hi =
n
des Auftretens von xi .
3.2
Klassierung von Merkmalswerten
Ist die Zahl der möglichen Merkmalsausprägungen zu groß, um Erhebungsdaten durch Häufigkeitsfunktionen praktikabel darzustellen, so
bildet man Klassen (meist Intervalle) von Merkmalswerten. Man unterscheidet dann Merkmalswerte nicht mehr, die in die gleiche Klasse
fallen (verzichtet allerdings dadurch auf Information). Die Klassenintervalle sollen bis auf die Randintervalle gleich breit sein, nicht überlappen und alle möglichen Merkmalswerte überdecken.
Anzahl der Merkmalsausprägungen
≈ 102
≈ 103
≈ 104
≈ 105
Mindestzahl der Klassen
≥ 10
≥ 13
≥ 16
≥ 20
Tabelle 1: Mindestzahl von Klassen nach DIN 55302
3.3
Absolute und relative Häufigkeit (2)
Sind die möglichen Werte eines Merkmals durch Klassierung in Klassenintervalle
I1 , . . . , Ik
aufgeteilt, wählt man als Repräsentanten für die jeweilige Klasse feste
Werte
x1 ∈ I1 , . . . , xk ∈ Ik
(z.B. Klassenmitten oder linke oder rechte Klassengrenzen) und bestimmt durch Zählung der Erhebungswerte yi (1 ≤ j ≤ n), die in die
Klasse Ii fallen, die absolute Häufigkeit
ni = #j|yj ∈ Ii
4
WAHRSCHEINLICHKEIT
4
und die relative Häufigkeit
hi =
ni
n
von Werten yi ≈ xi .
3.4
Absolute und relative Häufigkeitsdichte
Wenn für die Werte eines Merkmals einer statistischen Grundgesamtheit eine Klassierung durchgeführt worden ist, hängen die Werte der
zugehörigen absoluten und relativen Häufigkeit von der speziellen Wahl
der Klassen Ii ab, insbesondere von der Wahl ihrer Klassenbreiten ∆xi .
Um die absoluten und relativen Häufigkeiten zu verschiedenen Klassierungen sinnvoll vergleichen zu können, betrachtet man die absolute
(mittlere) Häufigkeitsdichte
ni
∆xi
und die relative (mittlere) Häufigkeitsdichte
fi =
3.5
ni
hi
=
.
∆xi
n · ∆xi
Relative Summenhäufigkeit
Eine Grundgesamtheit kann anstatt durch die relative Häufigkeitsdichte auch durch die relative Summenhäufigkeit
X
1 X
Fi =
nj =
fi · ∆xj
n
1≤j≤i
1≤j≤i
(i = 1, . . . , n) charakterisiert werden, wobei für 1 ≤ i ≤ n − 1
0 ≤ Fi ≤ Fi+1 ≤ Fn = 1
und
Fi+1 − Fi = fi+1 · ∆xi+1
gilt.
4
4.1
Wahrscheinlichkeit
Wahrscheinlichkeit (empirisch)
Ein Experiment mit möglichen Ergebnissen E1 , E2 , . . . , En sei genügend
oft wiederholbar. Es werde n-mal durchgeführt. Dabei treten die Ergebnisse Ei mit den relativen Häufigkeiten hi = nni auf. Wir erwarten
zukünftig das Auftreten des Ergebnisses Ei mit Wahrscheinlichkeit
pi = hi .
Das soll bedeuten: Wir erwarten bei zukünftigen Versuchsreihen für
jedes Ei die relative Häufigkeit
hi ≈ pi .
4
WAHRSCHEINLICHKEIT
4.2
5
Wahrscheinlichkeit (axiomatisch)
Ein endlicher Wahrscheinlichkeitsraum ist eine endliche Menge Ω und
eine strikt positive Funktion (Wahrscheinlichkeit) P auf Ω mit
X
P (ω) = 1.
ω∈Ω
Eine Zufallsvariable auf Ω ist eine Funktion X : Ω → R (Rbezeichne
die rellen Zahlen).
Der Erwartungswert einer Zufallsvariablen X ist
X
EX =
X(ω)P (ω).
ω∈Ω
4.3
Ereignisse
Ein Ereignis A ist eine Teilmenge A ⊂ Ω. Die Wahrscheinlichkeit eines
Ereignisses A ist
X
P (A) =
P (ω).
ω∈A
Für ein Ereignis A aus dem Wahrscheinlichkeitsraum Ω ist
1 falls ω ∈ A
1A (ω) =
0 falls ω ∈
/A
die Indikatorfunktion von A. Es gilt
P (A) = E1A .
4.4
Produkträume
Aus endlichen Wahrscheinlichkeitsräumen (Ωi , Pi ) (i = 1, . . . , n) erhält
man durch Bildung des kartesischen Produkts
Ω = Ω1 × . . . × Ωn
und der Produktwahrscheinlichkeit
P = P1 × . . . × Pn
mit
P (ω1 , . . . , ωn ) = P1 (ω1 ) · · · · · Pn (ωn )
einen neuen endlichen Wahrscheinlichkeitsraum (Ω, P ), den Produktraum.
Sind die Wahrscheinlichkeitsräume (Ωi , Pi ) untereinander gleich, stellt
der Produktraum ein Modell für eine Folge von n unabhängige Durchführungen desselben Experiments dar, wobei ωi ∈ Ωi das Ergebnis der
i-ten Durchführung des Experiments ist.
4
WAHRSCHEINLICHKEIT
4.5
6
Erwartungswert einer relativen Häufigkeit
Wir nehmen nun an, dass (Ω, P ) ein Produktraum von n gleichen endlichen Wahrscheinlichkeitsräumen (Ω0 , P0 ) und das Ereignis A ⊂ Ω0 ist.
Die Zufallsvariable
1 X
nA (ω) =
1A (ωi )
n
1≤i≤n
ist auf Ω erklärt und hat den Erwartungswert


X 1 X

1A (ωi ) P (ω)
EnA =
n
ω∈Ω
1≤i≤n


X
X
1

=
P (ω)
n
1≤i≤n
=
ω∈Ω,ωi ∈A
1 X
P0 (A)
n
1≤i≤n
= P0 (A)
4.6
(1)
Was ist Wahrscheinlichkeit?
Die Beziehung (1) stimmt mit folgender Deutung des Begriffs “Wahrscheinlichkeit” überein:
Die Wahrscheinlichkeit eines Ereignisses ist der Erwartungswert der relativen Häufigkeit seines Stattfindens.1
Es ist beruhigend, dass unsere abstrakten Konstruktionen “Wahrscheinlchkeit”, “Zufallsvariable” und “Erwartungswert” nicht im Widerspruch
stehen zum Wahrscheinlichkeitsbegriff, wie ihn z.B. ein theoretischer
Physiker braucht. Ist aber damit schon erklärt, was Wahrscheinlichkeit
wirklich ist? Wir können diese schwierige (philosophische?) Frage hier
nicht klären und trösten uns mit folgendem Zitat:
In statistics it is a mark of immaturity to argue overmuch about
the fundamentals of probability theory.2
4.7
4.7.1
Modellbildung
Alles in Ordnung?
Drei ideale in Deutschland geprägte (auf der Rückseite einen Adler
aufweisende) 1-¤-Münzen werden geworfen. “Ideal” soll hier bedeuten,
dass die Wahrscheinlichkeit für “Zahl” (Z) oder “Adler” (A) jeweils 12 ist.
Wie groß ist die Wahrscheinlichkeit p, dass nur Adler oder nur Zahlen
erscheinen? Was ist von folgenden Antworten zu halten?
1 C.F.v.Weizsäcker,
2 Kendall
Aufbau der Physik. Hanser, 1985.
and Stuart, The advanced theory of statistics. Vol.1, London, 1969.
4
WAHRSCHEINLICHKEIT
7
1. Es gibt zwei Möglichkeiten: Entweder erscheinen drei gleiche Bilder oder aber zwei gleiche und ein anderes. Also ist p = 12 .
2. Es gibt vier Möglichkeiten: Drei Adler, zwei Adler und eine Zahl,
ein Adler und zwei Zahlen, drei Zahlen. Also ist p = 2 · 41 = 12 .
3. Zwei Münzen müssen das gleiche Bild zeigen. Die dritte muss entweder ebenfalls das gleiche Bild zeigen oder ein anderes. Es gibt
nur diese zwei Möglichkeiten. Also ist p = 21 .
4.7.2
Modell
Wir bilden
Ω
= {AAA, AAZ, AZA, AZZ, ZAA, ZAZ, ZZA, ZZZ}
= {ω1 , . . . , ω8 }.
Alle Ergebnisse sind gleichwahrscheinlich:
P (ωi ) =
1
8
(i = 1, . . . , 8).
Das Ereignis “nur Adler oder nur Zahl” ist
E = {AAA, ZZZ} = {ω1 , ω8 }
und es gilt
1 1
1
+ = .
8 8
4
Dies soll zeigen: Ein Wahrscheinlichkeitsmodell bringt Klarheit.
P (E) = P (ω1 ) + P (ω8 ) =
4.8
Die Ereignisalgebra F
Ω sei ein endlicher Wahrscheinlichkeitsraum und P eine Wahrscheinlichkeit auf Ω. F bezeichne die Menge aller Ereignisse A ⊂ Ω (damit ist
auch vereinbart, dass ∅ ∈ F ist). P ist auf F erklärt.
Für alle A ∈ F gilt
0 = P (∅) ≤ P (A) ≤ P (Ω) = 1.
und man hat für das Rechnen auf F die Regeln
P (A ∪ B)
= P (A) + P (B) − P (A ∩ B)
P (A ∩ B)
= P (A) + P (B) + P ((Ω − A) ∩ (Ω − B)) − 1
P (A \ B)
= P (A) − P (A ∩ B).
Ferner: Aus P (A) ≥ 1 − und P (B) ≥ 1 − folgt P (A ∩ B) ≥ 1 − 2.
4
WAHRSCHEINLICHKEIT
4.9
8
Gleichwahrscheinlichkeit und Kombinatorik
Sind in einem endlichen Wahrscheinlichkeitsraum die Ergebnisse ω ∈
Ω gleichwahrscheinlich, führt die Berechnung bestimmter Wahrscheinlichkeiten oft auf kombinatorische Probleme.
Beispiel 1 Wie groß ist die Wahrscheinlichkeit, dass in einer Ziffernfolge
der Länge 6, die nur aus den Ziffern 0 und 1 besteht, genau zweimal eine
1 auf eine 0 folgt?
Antwort: 21
64 .
Beispiel 2 Wie groß ist die Wahrscheinlichkeit, dass eine zufällig gewählte Ziffernfolge der Länge 5, die aus den Ziffern 0 bis 9 besteht, lauter verschiedene Ziffern enthält?
Antwort:
30240
.
100000
4.9.1
Permutationen und Kombinationen
Eine Menge M habe n Elemente.
Die Anzahl verschiedener möglicher Anordnungen (Permutationen)
der Elemente von M ist
n! = n · (n − 1) · · · 2 · 1
(“n Fakultät”). Es gilt die Konvention 0! = 1.
Eine Teilmenge T ⊂ M mit r verschiedenen Elementen heißt rKombination. Zu M gibt es
n!
n
=
r
r!(n − r)!
n
ist der Binomialkoeffizient “n über
verschiedene r-Kombinationen.
r
r”. Die Beziehung
n
n−1
n−1
=
+
r
r−1
r
verdeutlicht.
4.9.2
Permutationen mit Nebenbedingungen
Durch zusätzliche Nebenbedingungen werden kombinatorische Probleme oft noch erschwert.
Beispiel 3 Auf wieviele Arten kann man die Elemente der Menge M =
{m1 , . . . , mn } umordnen, ohne dass irgendein mi wieder an die i-te Stelle
kommt?
Antwort: Für die gesuchte Anzahl Dn gilt Dn = (n − 1)(Dn−2 + Dn−1 ).
4
WAHRSCHEINLICHKEIT
4.10
9
Verteilung, Verteilungsfunktion
Der Erwartungswert einer Zufallsvariablen X : Ω → {a1 , . . . , ak } hängt
nur von den Werten
P (X = ai ) = P ({ω|X(ω) = ai }), i = 1, . . . , k
(die in der Wahrscheinlichkeitstheorie übliche Schreibweise steht links)
ab:
X
EX =
X(ω)P (ω)
ω∈Ω
=
X
X
ai P (ω)
1≤i≤k ω∈{X=ai }
=
X
ai P (X = ai ).
1≤i≤k
Die Gesamtheit der Werte P (X = ai ), i = 1, . . . , k heißt Verteilung der
Zufallsvariablen X.
Die monoton wachsende Treppenfunktion
F (a) = P (X ≤ a), a ∈ R
heißt Verteilungsfunktion.
4.11
Varianz, Kovarianz
Maße für die Abweichung der Zufallsvariablen X von ihrem Erwartungswert sind die Varianz (Streuung) von X
σ 2 (X) = E(X − EX)2
und die Standardabweichung von X
p
σ(X) = σ 2 (X).
2
Auch die Schreibweisen σX
für σ 2 (X) und σX für σ(X) sind üblich.
Die Kovarianz zweier Zufallsvariablen X, Y : Ω → R ist
Cov(X, Y ) = E(X − EX)(Y − EY ).
Sie kann als graduelles Maß für die Unabhängigkeit bzw. für den linearen Zusammenhang von X und Y aufgefasst werden.
4.12
Die Tschebyscheffsche Ungleichung
Die Wahrscheinlichkeit für die Abweichung der Zufallsvariablen X von
ihrem Erwartungswert EX um den Mindestwert a > 0 kann mit Hilfe
der Varianz abgeschätzt werden:
P (|X − EX| ≥ a)
= P ((X − EX)2 ≥ a2 )
(X − EX)2
= P(
≥ 1)
a2
2
(X − EX)
≤ E
a2
2
σ (X)
.
=
a2
4
WAHRSCHEINLICHKEIT
10
Die Beziehung
σ 2 (X)
a2
heißt Tschebyscheffsche Ungleichung. Sie ist nur im Falle a > σ(X)
interessant.
P (|X − EX| ≥ a) ≤
4.13
Gemeinsame Verteilung, Unabhängigkeit
Seien X1 , . . . , Xn Zufallsvariablen auf (Ω, P ). man nennt
\
P (X1 = a1, . . . , Xn = an ) = P (
{Xi = ai })
1≤i≤n
deren gemeinsame Verteilung und
F (a1 , . . . , an ) = P (
\
{Xi = ai })
1≤i≤n
deren gemeinsame Verteilungsfunktion (dabei durchläuft (a1 , . . . , an ) alle
Werte in Rn ).
Die Zufallsvariablen X1 , . . . , Xn heißen unabhängig, wenn
Y
P (X1 = a1, . . . , Xn = an ) =
P (Xi = ai )
1≤i≤n
oder, was damit gleichwertig ist,
F (a1 , . . . , an ) =
Y
P (Xi ≤ ai )
1≤i≤n
für alle (a1 , . . . , an ) ∈ Rn gilt.
4.14
Eine Eigenschaft unabhängiger Variabler
Seien X1 , . . . , Xn unabhängige Zufallsvariablen mit Wertebereichen W1 , . . . , Wn .
Der Erwartungswert ihres Produkts ist
X
X
...
a1 · · · an P (X1 = a1, . . . , Xn = an ).
a1 ∈W1
an ∈Wn
Wegen der Unabhängigkeit der Zufallsvariablen lässt sich dieser Ausdruck umformen zu
X
X
Y
...
a1 · · · an
P (Xi = ai )
a1 ∈W1
an ∈Wn
1≤i≤n
und durch geeignetes Ausklammern zu
Y X
ai P (Xi = ai ).
1≤i≤n ai ∈Wi
Damit ist gezeigt, dass
E
Y
1≤i≤n
Xi =
Y
EXi
1≤i≤n
gilt, d.h. dass der Erwartungswert des Produktes von unabhängigen
Zufallsvariablen gleich dem Produkt ihrer Erwartungswerte ist.
4
WAHRSCHEINLICHKEIT
4.15
11
Eigenschaften der Varianz
Für eine Zufallsvariable X und beliebiges a ∈ R gilt
E(X − a)2
= EX 2 − 2aEX + a2
= EX 2 − (EX)2 + (EX − a)2 .
Der Ausdruck wird minimal für a = EX. Also ist
σ 2 (X) = min E(X − a)2
a∈R
und es gilt für beliebiges c ∈ R
σ 2 (X) = σ 2 (X + c)
sowie
σ 2 (X) = EX 2 − (EX)2 .
Ferner gilt für unabhhängige Zufallsvariablen X1 , . . . , Xn und beliebige
c1 , . . . , cn ∈ R


X
X
σ2 
ci Xi  =
c2i σ 2 (Xi )
1≤i≤n
1≤i≤n
(nachrechnen!).
4.16
Schwaches Gesetz der großen Zahlen
X1 , . . . , Xn seien unabhängige Zufallsvariablen mit gleichem Erwartungswert m = EXi und gleicher Varianz σ 2 = σ 2 (Xi ) . Wir betrachten die
Zufallsvariablen
X
Sn =
Xi
1≤i≤n
und
Tn =
1
Sn .
n
Es gilt ETn = m und σ 2 (Tn ) = n1 σ 2 . Für beliebiges a > 0 gilt nach der
Tschebyscheffschen Ungleichung
P (|Tn − m| ≥ a) ≤
σ2
,
na2
folglich
P (|Tn − m| < a) ≥ 1 −
σ2
.
na2
Mit m → ∞ erhält man
lim P (|Tn − m| < a) = 1
n→∞
P
für alle a > 0,
(2)
wofür man kurz Tn → m schreibt und sagt: Tn konvergiert nach Wahrscheinlichkeit gegen m. Man nennt (2) das schwache Gesetz der großen
Zahlen.
5
SPEZIELLE VERTEILUNGEN
12
Bezeichnet man mit Fn die Verteilungsfunktion von Tn , dann ist die
Konvergenz nach Wahrscheinlichkeit
P
Tn → m
gleichwertig mit
lim Fn (m + a) = 1
n→∞
und
lim Fn (m − a) = 0
n→∞
für alle a > 0,
denn
lim P (|Tn − m| < a) = 1
n→∞
für alle a > 0
ist gleichwertig mit
lim P (T ≤ m + a) = 1
n→∞
5
und
lim P (T ≤ m − a) = 0
n→∞
für alle a > 0.
Spezielle Verteilungen
5.1
Die Binomialverteilung
Eine Zufallsvariable X mit Verteilung
n k
p (1 − p)n−k
P (X = k) =
k
(0 ≤ k ≤ n) nennt man B(n, p)-verteilt oder binomialverteilt.
B(n, p)-verteilte Zufallsvariablen haben Erwartungswert np und Varianz np(1 − p).
Beispiel 4 In einer Urne befinden sich r rote und s schwarze Kugeln. Die
Anzahl roter Kugeln, die man nach n Ziehungen mit Zurücklegen gezogen
r
hat, ist B(n, r+s
)-verteilt.
5.2
5.2.1
Die Normalverteilung
Als Grenzwert binomialverteilter Zufallsvariablen
Seien X1 , X2 , . . .unabhängige, binomialverteilte Zufallsvariablen
mit P (Xi =
P
1) = P (Xi = 0) = 12 . Für die Zufallsvariable Sn = 1≤i≤n Xi gilt P (Sn =
P
k) = nk ( 12 )n . Sie hat den Erwartungswert ESn = E 1≤i≤n Xi = n2 und
P
die Varianz σ 2 (Sn ) = 1≤i≤n σ 2 (Xi ) = n4 .
Wir zeigen:
Z x
2
n x √ 1
lim P Sn − <
n =√
e−t /2 dt .
n→∞
2
2
2π −x
Wir betrachten zuerst den Fall einer geraden Anzahl von Summanden
und setzen
x√ P2n (x) = P |S2n − n| <
2n .
2
5
SPEZIELLE VERTEILUNGEN
13
Es ist
P2n (x)
2n
k
2n
1
2
2n
n+j
2n
1
2
2n
n
X
=
|k−n|< x
2
√
2n
X
=
|j|< x
2
√
2n
X
=
|j|< x
2
√
2n
2n
1
Dj,n
2
mit
Dj,n
=
=
n · (n − 1) · . . . · (n − j + 1)
(n + j) · (n + j − 1) · . . . · (n + 1)
1
.
j
j
) · . . . · (1 + n−j+1
)
(1 + nj ) · (1 + n−1
Nach dem Mittelwertsatz ist ln(1+x)−ln 1 = ln0 (1+ x̃)·x mit |x̃| ≤ |x|, also
1
x̃
ln(x + 1) = 1+x̃
· x = (1 − 1+x̃
) · x mit |x̃| ≤ |x|, d.h. ln(x + 1) = (1 + ε(x)) · x
mit limx→0 ε(x) = 0. Somit ist
ln Dj,n
= −
j−1
X
ln(1 +
k=0
= −
j−1
X
k=0
j
)
n−k
j
j
(1 + ε(
))
n−k
n−k
= −(1 + εj,n )
j−1
X
k=0
j
n−k
p
mit geeigneten εj,n . Wegen der Einschränkung |j| < x n2 gilt
j
=0
lim sup sup ε
n→∞ j 0≤k<j n−k und damit auch
lim sup |εj,n | = 0 .
n→∞
Mit
j
j
1
j
= ·
n−k
n 1−
k
n
kann man ln Dj,n weiter vereinfachen zu
ln Dj,n = −(1 + ε0j,n )
j−1
X
j
j2
= −(1 + ε0j,n ) ,
n
n
k=0
wobei wegen 0 ≤ k < j die ε0j,n wiederum gleichmäßig gegen 0 konvergieren. Damit ist
2
Dj,n = e−j /n (1 + ∆j,n )
5
SPEZIELLE VERTEILUNGEN
14
p
für |j| < x n2 , wobei auch die ∆j,n gleichmäßig gegen 0 konvergieren.
Mithilfe der Stirlingschen Formel
√
n! = e−n nn 2πn(1 + εn )
(mit limn→∞ εn = 0) kann man 2n
n in der Form
1
22n · √ (1 + δn )
πn
mit limn→∞ δn = 0 darstellen.
Damit erhält man für P2n (x) die Darstellung
2
1
√ e−j /n
√ n πn
X
P2n (x) = (1 + δn0 )
|j|<x
2
mit limn→∞ δn0 = 0. Durch die Variablentransformation
p
p
tj = j 2/n , ∆t = tj+1 − tj = 2/n
wird
r
n
|j| < x
2
zu
−x < tj < x
und damit
P2n (x) = (1 + δn0 )
2
1
√ e−tj /2 ∆t .
2π
−x<tj <x
X
Dies ist eine Riemannsche Summe, die beim Übergang zum Grenzwert
Z x
2
1
lim P2n (x) = √
e−t /2 dt
n→∞
2π −x
liefert.
Die Behandlung der P2n+1 (x) wird durch geeignete Abschätzungen
auf die Behandlung der P2n (x) zurückgeführt.
5.2.2
Gaußsche Fehlerfunktion und Normalverteilung
Für die Gaußsche Fehlerfunktion
1
Φ(a) = √
2π
Z
a
2
e−t
/2
dt
−∞
gilt Φ(−a) = 1 − Φ(a), Φ(−∞) = 0 und Φ(∞) = 1. Sie kann als Verteilungsfunktion
P (x ≤ a) = Φ(a)
einer (im erweiterten Sinn definierten) Zufallsvariablen X aufgefaßt
werden mit Erwartungswert
Z ∞
2
1
EX = √
te−t /2 dt = 0
2π −∞
5
SPEZIELLE VERTEILUNGEN
und Varianz
1
σ 2 (X) = √
2π
15
Z
∞
2
t2 e−t
/2
dt = 1 .
−∞
X nennt man dann N (0, 1)-verteilt (standardnormalverteilt). Ist (mit Konstanten m,σ) die Zufallsvariable X−m
standardnormalverteilt, so nennt
σ
man die Zufallsvariable X N (m, σ)-verteilt (normalverteilt mit Mittelwert
m und Varianz σ 2 ).
5.2.3
Zentraler Grenzwertsatz
Die Bedeutung der Normalverteilung für die Statistik wird klar an folgendem
Pn
Satz 1 (Zentraler Grenzwertsatz) Für die Summen Sn =
i=1 Xi von
unabhängigen, identisch verteilten Zufallsvariablen X1 , X2 , . . . mit EXi =
0 und σ 2 (Xi ) = σ 2 gilt
Sn
√ < a = Φ(a)
lim P
n→∞
σ n
(a ∈ R).
Diesem Satz ordnet sich als Spezialfall auch die vorhin gezeigte Konvergenz
Z x
2
n x √ 1
lim P Sn − <
e−t /2 dt
n =√
n→∞
2
2
2π −x
unter, wo die Summen Sn aus identisch verteilten Zufallsvariablen Xi
mit P (Xi = 0) = P (Xi = 1) = 21 gebildet waren. Denn aus Symmetriegründen gilt mit
Z x
2
n x √ 1
lim P Sn − <
n =√
e−t /2 dt
n→∞
2
2
2π −x
auch
n
x√ 1
n =√
lim P Sn − <
n→∞
2
2
2π
Z
x
2
e−t
/2
dt
−∞
und damit ist auch
Pn
Z x
1
2
1
x=1 (Xi − 2 )
lim P
<x = √
e−t /2 dt .
1√
n→∞
2π −∞
2 n
Die letzte Formulierung stimmt mit der des Zentralen Grenzwertsatzes
überein.
Bemerkung 1 Die Verteilung der standardisierten Summen der Zufallsvariablen Xi ist asymptotisch N (0, 1)-verteilt unabhängig davon, wie die
Xi verteilt sind.
Bemerkung 2 Der Zentrale Grenzwertsatz gilt auch unter schwächeren
Voraussetzungen: Statt eine identische Verteilung der Xi anzunehmen,
genügt es, sicherzustellen, dass keine der Zufallsvariablen Xi dominiert
und so die Verteilung der Sn zu stark prägt.
5
SPEZIELLE VERTEILUNGEN
16
Bemerkung 3 Das erklärt, warum viele empirische Häufigkeitsverteilungen annähernd normal sind: Wird ein Merkmal durch additives Zusammenwirken verschiedener unabhängiger gleichgewichtiger Einflussgrößen bestimmt, ist die Verteilung des Merkmals annähernd normal
(Beispiel: Messfehler).
5.2.4
Approximation von B(n, p) durch N (0, 1)
Für große n ist die direkte Berechnung der Binomialverteilung mühsam. Man greift deshalb auf die Näherung durch die Normalverteilung
zurück.
Faustregel: Für eine B(n, p)-verteilte Zufallsvariable X mit
n>
9
p(1 − p)
ist
P (X ≤ k) ≈ Φ
k + 1 − np
p 2
np(1 − p)
!
eine brauchbare Näherung.
5.3
5.3.1
Die Poissonverteilung
Inanspruchnahme einer Bedienstelle
Ein Zeitraum [0, T [ wird in n gleich große Intervalle [0, n1 T [, [ n1 T, n2 T [, . . .,
[ n−1
n T, T [ unterteilt.
Die Unterteilung sei so fein, dass pro Zeitintervall entweder (mit
Wahrscheinlichkeit 1 − p) keine oder (mit Wahrscheinlichkeit p) eine
Anforderung ankommt.
Sei Xi = 0, falls im i-ten Intervall keine Anforderung ankommt, an, . . . , Xn sind unabhängig
dernfalls sei Xi = 1. Die Zufallsvariablen X1P
n
und B(1, p)-verteilt. Die Zufallsvariable Sn = i=1 Xi ist B(n, p)-verteilt
mit ESn = np.
Wir lassen n → ∞ und nehmen dabei an, dass sich die Größe ESn =
np = λ nicht ändert. Welche Grenzverteilung limn→∞ P (Sn = k) ergibt
sich?
Die Poissonverteilung P(λ)
Pn
λ
Die Summe Sn =
i=1 Xi der unabhängigen, B(1, n )-verteilten ZVn
X1 , . . . , Xn ist B(n, nλ )-verteilt mit
5.3.2
P (sn = k) =
n−k
k n
λ
λ
.
1−
n
n
k
Wegen
lim P (Sn = 0) = lim
n→∞
n→∞
λ
1−
n
n
= e−λ
5
SPEZIELLE VERTEILUNGEN
und
lim
n→∞
17
P (Sn = k)
λ
=
P (Sn = k − 1)
k
erhält man daraus durch Rekursion
lim P (Sn = k) =
n→∞
λk
λk −λ
lim P (Sn = 0) =
e .
k! n→∞
k!
Dies ist die Poissonverteilung P(λ). Ihre Verwendung zur Approximation
der Binomialverteilung nennt man den Grenzwertsatz seltener Ereignisse .
5.3.3
Momente der Poissonverteilung
P(λ) kann als Verteilungsfunktion einer (im erweiterten Sinn definierten) Zufallsvariablen X mit Werten in N0 aufgefaßt werden mit Erwartungswert
EX
∞
X
λk
k e−λ
k!
=
k=0
∞
X
= λ
k=1
λk−1 −λ
e
(k − 1)!
= λ
und Varianz
σ 2 (X)
= EX 2 − (EX)2
∞
X
λk
=
k 2 e−λ − λ2
k!
k=0
∞
X
= λ
= λ
k=1
∞
X
k=0
k
λk−1 −λ
e − λ2
(k − 1)!
(k + 1)
λk −λ
e − λ2
k!
= λ.
Eine solche Zufallsvariable nennen wir P(λ)-verteilt.
5.3.4
Summen poissonverteilter Zufallsvariabler
Ist die Zufallsvariable X P(λ1 )-verteilt und die Zufallsvariable Y P(λ2 )verteilt und sind X und Y unabhängig, so ist ihre Summe Z = X + Y
5
SPEZIELLE VERTEILUNGEN
18
P(λ1 + λ2 )-verteilt, denn
P (Z = k)
=
k
X
P (X = j, Y = k − j)
j=0
=
k
X
P (X = j)P (Y = k − j)
j=0
k
X
λj1 λk−j
2
=
e−(λ1 +λ2 )
j!(k
−
j)!
j=0
5.3.5
=
k e−(λ1 +λ2 ) X k j k−j
λ λ
k!
j 1 2
j=0
=
(λ1 + λ2 )k −(λ1 +λ2 )
e
.
k!
Approximation der Poissonverteilung
Für unabhängige P(λ)-verteilte Zufallsvariablen X1 , X2 , . . . gilt der Zentrale Grenzwertsatz. Ihre standardisierten Summen
Sn − nλ
√
nλ
Pn
(mit Sn = i=1 Xi ) sind deshalb asymptotisch N (0, 1)-verteilt.
Da die Sn P(nλ)-verteilte Zufallsvariablen sind, kann man dieses
Resultat auch für einzelne poissonverteilte Zufallsvariablen interpretieren: Ist die Zufallsvariable X P(λ)-verteilt, so geht für λ → ∞ die Ver√
in die Normalverteilung N (0, 1) über.
teilung der Zufallsvariablen X−λ
λ
Faustregel: Eine brauchbare Näherung für poissonverteilte Zufallsvariablen mit λ > 9 ist
k + 21 − λ
√
P (X ≤ k) ≈ Φ
.
λ
5.4
Die Hypergeometrische Verteilung
In einer Grundgesamtheit mit N Elementen haben M Elemente eine
bestimmte Eigenschaft E und N − M Elemente die Eigenschaft E nicht.
Die Zahl X der Elemente mit Eigenschaft E, die man bei zufälliger Ziehung (auf einmal oder nacheinander) von n Elementen ohne Zurücklegen aus dieser Grundgesamtheit erhält, nennt man H(N, M, n)-verteilt
oder hypergeometrisch verteilt .
Es gilt
P (X = k) =
M
k
EX = n ·
N −M
n−k
N
n
M
,
N
,
6
STICHPROBEN UND DEREN VERWENDUNG
M
σ (X) = n ·
N
2
5.5
M
1−
N
19
N −n
.
N −1
Zufallsvariablen mit unendlich vielen Werten
Wir haben zu Beginn Zufallsvariablen als zufällige Größen definiert, die
nur endlich viele verschiedene Werte annehmen können.
Wir haben dann gesehen, dass sich als Grenzwerte solcher Zufallsvariablen zufällige Größen ergeben können, die entweder unendlich
viele diskrete Werte (z.B. poissonverteilte Größen) oder ein Kontinuum
von Werten haben (z.B. normalverteilte Größen). Wir dehnen unseren
Zufallsvariablen-Begriff auch auf solche Größen aus, denn es handelt
sich bei diesen um äußerst nützliche Idealisierungen zufälliger Größen
der realen Welt.
Mit entsprechender mathematischer Umsicht dürfen und werden
wir mit den Zufallsvariablen im erweiterten Sinn nach den gleichen Regeln rechnen, die am Anfang für die “einfachen” Zufallsvariablen aufgestellt wurden (z.B. σ 2 (X) = EX 2 − (EX)2 ).
6
Stichproben und deren Verwendung
Die Vorlesung verzweigt nun in zwei Richtungen, die unabhängig voneinander studiert werden können. Jeder Zweig führt in ein Spezialgebiet der inferentiellen Statistik ein, in die Schätztheorie einerseits, in
die Testtheorie andrerseits.
6.1
Stichproben
Eine Stichprobe ist eine endliche und echte Teilmenge einer statistischen Grundgesamtheit, die Aufschluss über die Grundgesamtheit liefern soll. Die Anzahl n der Stichprobenelemente heißt Stichprobenumfang.
Stichproben werden zur Beurteilung der Grundgesamtheit herangezogen, wenn eine Vollerhebung zu teuer, zu zeitaufwendig, nicht sinnvoll, zu keiner Zeit durchführbar, oder wegen der unendlichen Größe
der Grundgesamtheit nicht möglich ist.
Die wesentliche Eigenschaft einer Stichprobe ist ihre Zufälligkeit.
6.2
Schätzen
Mit Hilfe von Stichproben ist man in der Lage, den Typ oder Parameter
(z.B. Mittelwert, Streuung, Anteilswert) von Merkmalsverteilungen zu
schätzen.
Die Schätzung kann in der Angabe einer bestimmten Zahl für den
unbekannten Parameter bestehen (Punktschätzung) oder in der Angabe
eines Intervalls, das den unbekannten Parameter überdeckt (Intervallschätzung).
7
ELEMENTE DER SCHÄTZTHEORIE
20
In beiden Fällen sind die Schätzungen mit Unsicherheit behaftet, die
man mit Hilfe der Wahrscheinlichkeitsrechnung abschätzt und möglichst klein hält.
6.3
Testen
Bei statistischen Testverfahren werden Hypothesen über den Typ oder
über Parameter der Merkmalsverteilung einer Grundgesamtheit durch
Stichproben überprüft. Ein solches Testverfahren kann dazu führen,
daß die vor dem Test aufgestellte Hypothese verworfen (andernfalls beibehalten) wird.
Eine derartige Entscheidung ist mit Unsicherheit behaftet, da sie
aufgrund eines Zufallsexperiments, nämlich der Stichprobe, gefällt wird.
Diese Unsicherheit wird mit Hilfe der Wahrscheinlichkeitsrechnung abgeschätzt und möglichst klein gehalten.
7
Elemente der Schätztheorie
7.1
7.1.1
Ein Beispiel
Schätzung eines Fehleranteils
Der p eines Serienproduktes soll geschätzt werden. Dazu werden n zufällige Stichproben gezogen, d.h. es werden B(1, p)-verteilte Zufallsvariablen X1 , . . . , Xn “realisiert”: xi = 1, wenn das i-te gezogene Stück fehlerhaft ist, andernfalls xi = 0. Man beachte, dass wir Zufallsvariablen
groß schreiben, deren Realisierungen dagegen klein. Aus den beobachteten Werten soll nun das unbekannte p möglichst gut durch einen
Schätzwert p̂ geschätzt werden.
Wir schätzen
p̂ = U (X1 , . . . , Xn )
mit der Schätzfunktion
U (x1 , . . . , xn ) =
1 X
xi ,
n
1≤i≤n
d.h.: Ist bei den n Stichproben N -mal ein fehlerhaftes Stück gezogen
worden, schätzen wir
N
p̂ = .
n
7.1.2
Eigenschaften der Schätzfunktion p̂
1. p̂ ist erwartungstreu (auch unverzerrt, engl. unbiased), d.h.
Ep̂ = p.
2. p̂ ist konsistent (sehr wünschenswert!), d.h.
P
p̂ −→ p
für n −→ ∞.
7
ELEMENTE DER SCHÄTZTHEORIE
21
Dies folgt unmittelbar aus dem schwachen Gesetz der großen Zahlen. Es bedeudet, dass eine Abweichung der Schätzfunktion vom
wahren Wert p mit wachsendem Stichprobenumfang n immer unwahrscheinlicher wird.
3. Unter allen erwartungstreuen Schätzfunktionen ist p̂ diejenige mit
der kleinsten Varianz (ohne Beweis). Es ist
σ 2 (p̂) =
7.1.3
1
1
p(1 − p) ≤
.
n
4n
Konfidenzintervalle für p
Für den wahren Parameter p und jede Realisierung u = U (x1 , . . . , xn )
von p̂ ist
(p, u) ∈ Q = [0, 1] × [0, 1].
Wir geben B ⊂ Q an, sodass (p, p̂) ∈ B mit statistischer Sicherheit 1 − 2β
gilt (β vorgegeben, z.B. β = 0.025). Zu p ∈ [0, 1] sei Ip das Intervall mit
Mittelpunkt p, für das
Pp (p̂ ∈ Ip ) = 1 − 2β
(möglichst genau!) gilt. Der Index p bei P bedeutet, dass p der Parameterwert zur Berechnung der Wahrscheinlichkeit ist. Für
[
B =Q∩
{p} × Ip
p∈[0,1]
gilt dann
P ((p, p̂) ∈ B)) = 1 − 2β.
(3)
Durch die Funktionen f1 und f2 sei der linke bzw. rechte Rand der
Menge B parametrisiert. Dann kann die Beziehung (3) auch geschrieben werden als
P (f1 (p̂)) ≤ p ≤ f2 (p̂)) = 1 − 2β.
Interpretation: Mit statistischer Sicherheit (Konfidenzwahrscheinlichkeit) 1 − 2β wird für eine Realisierung u = U (x1 , . . . , xn ) von p̂ der wahre
Parameter p zwischen f1 (u) und f2 (u) eingeschlossen.
Das Intervall [f1 (u), f2 (u)] heißt Konfidenzintervall (auch Mutungsintervall), f1 (u) und f2 (u) heißen Vertrauensgrenzen, die Zahl 2β Fehlerwahrscheinlichkeit.
7.1.4
Approximative Konfidenzintervalle
Wir betrachten den Fall, dass n und p eine Approximation durch die
Normalverteilung erlauben. Mit Φ(−h) = β gilt dann
!
np̂ + 12 − np
≤h
≈ Φ(h) − Φ(−h)
P −h ≤ p
np(1 − p)
=
1 − 2β.
7
ELEMENTE DER SCHÄTZTHEORIE
22
Daraus erhält man
1
h2 p(1 − p)
2
P (p̂ +
− p) ≤
≈ 1 − 2β.
2n
n
Die Gleichung der Randkurve von B lautet daher näherungsweise
(u +
woraus man
1
h2 p(1 − p)
− p)2 =
,
2n
n
1
h p
u(1 − u) + O( )
f1,2 (u) = u ± √
n
n
herleiten kann.
7.2
Konfidenzintervalle
Als Beispiel für die Vorgehensweise haben wir Konfidenzintervalle für
den Anteil an einer Grundgesamtheit konstruiert. Wir werden nun angeben, wie man für andere Größen (z.B. für den Mittelwert einer N (µ, σ)verteilten Grundgesamtheit) Konfidenzintervalle bestimmt.
Generell gilt (wie im Speziallfall 7.1.3):
• Erhöhung der Konfidenzwahrscheinlichkeit vergrößert die Konfidenzintervalle: Sichere Aussagen sind unscharf und scharfe Aussagen sind unsicher.
• Erhöhung des Stichprobenumfangs verkleinert die Konfidenzintervalle.
7.2.1
K.-I. für p (Normalverteilungsapproximation)
Seien x1 , . . . , xn die Stichprobenergebnisse einer B(1, p)-verteilten Grundgesamtheit. Für die Schätzgröße
p̂ =
1 X
xi
n
1≤i≤n
gelte min{np̂, n(1 − p̂)} > 5 (somit ist eine Approximation durch die Normalverteilung vertretbar). Mit Konfidenzwahrscheinlichkeit 1−2β überdeckt dann das Konfidenzintervall
"
#
r
r
p̂(1 − p̂)
1
p̂(1 − p̂)
1
−z
, p̂ +
+z
p̂ −
2n
n
2n
n
den wahren Parameter p (dabei ist z das rechte β-Quantil der N (0, 1)Verteilung).
Beispiel 5 Bei einer Blitzumfrage waren 45 von 225 befragten wahlberechtigten Personen der Überzeugung, daß die gegenwärtige Regierung
7
ELEMENTE DER SCHÄTZTHEORIE
23
vor Ablauf der Legislaturperiode abgelöst wird. Zwischen welchen Grenzen wird der Anteil p der Wahlberechtigten, die diese Überzeugung haben, mit 90% Konfidenzwahrscheinlichkeit liegen?
p̂ =
45
= 0.2 .
225
Wegen np̂ = 45 > 5 und n(1 − p̂) = 180 > 5 kann man die Normalverteilung
zur Approximation heranziehen und erhält als Grenzen des Konfidenzintervalls
!
r
1
0.16
0.2 ∓
+ 1.64
450
225
und damit das Konfidenzintervall
[0.154 , 0.246] .
Also liegt mit statistischer Sicherheit von 90% der Anteil zwischen 15.4%
und 24.6%.
7.2.2
K.-I. für p (exakt)
Exakte Vertrauensgrenzen,Pauch falls sich np̂ ≤ 5 oder n(1 − p̂) ≤ 5
n
für den Schätzwert p̂ = n1 i=1 xi ergibt, erhält man mit Hilfe der F Verteilung. Mit Konfidenzwahrscheinlichkeit 1 − 2β ist
np̂
(np̂ + 1)F2
,
np̂ + (n − np̂ + 1)F1 n − np̂ + (np̂ + 1)F2
ein Konfidenzintervall, das p enthält.
Dabei sind F1 und F2 rechte β-Quantile der F -Verteilung mit Freiheitsgraden ν1 und ν2 :
F1
= Fν1 ;ν2 ;β
mit ν1 = 2(n − np̂ + 1) und
F2
= Fν1 ;ν2 ;β
mit ν1 = 2(np̂ + 1) und
ν2 = 2np̂,
ν2 = 2(n − np̂).
Beispiel 6 Bei einer Blitzumfrage waren 45 von 225 befragten wahlberechtigten Personen der Überzeugung, daß die gegenwärtige Regierung
vor Ablauf der Legislaturperiode abgelöst wird. Zwischen welchen Grenzen wird der Anteil p der Wahlberechtigten, die diese Überzeugung haben, mit 90% Konfidenzwahrscheinlichkeit liegen? Man berechne die Vertrauensgrenzen exakt. Mit ν1 = 2 · (225 − 45 + 1) = 362 und ν2 = 2 · 45 ist
F1 = F362 ; 90 ; 0.05 = 1.3. Mit ν1 = 2 · (45 + 1) = 92 und ν2 = 2 · (225 − 45) = 360
46·1.22
45
= 0.161 und 180+46·1.22
=
ist F2 = F92 ; 360 ; 0.05 = 1.22. Die Werte 45+181·1.3
0.237 sind die exakten Grenzen des Konfidenzintervalls. Also liegt mit
statistischer Sicherheit von 90% der Anteil zwischen 16.1% und 23.7%.
7.2.3
K.-I. für µ einer N (µ, σ)-Verteilung (σ bekannt)
Mit Konfidenzwahrscheinlichkeit 1 − 2β ist
»
–
σ
σ
µ̂ − z √ , µ̂ + z √
n
n
7
ELEMENTE DER SCHÄTZTHEORIE
24
P
mit der Schätzfunktion µ̂ = n1 n
i=1 xi ein Konfidenzintervall zur Stichprobe
x1 , . . . , xn einer N (µ, σ)-verteilten Grundgesamtheit, das µ überdeckt. Dabei ist
z das rechte β-Quantil der N (0, 1)-Verteilung.
Beispiel 7 Aus einer N (µ, 12)-verteilten Grundgesamtheit wird eine Stichprobe
mit Umfang n = 36 gezogen, die für µ̂ den Wert 26 liefert. Für 1 − 2β = 0.95 erhält
man das Konfidenzintervall
»
–
12
12
26 − 1.96 √ , 26 + 1.96 √
.
36
36
7.2.4
K.-I. für µ einer N (µ, σ)-Verteilung (σ unbekannt)
Mit Konfidenzwahrscheinlichkeit 1 − 2β ist
σ̂
σ̂
µ̂ − t √ , µ̂ + t √
n
n
mit den Schätzfunktionen
1 X
xi
n
µ̂ =
1≤i≤n
und
sP
σ̂ =
1≤i≤n (xi
− µ̂)2
n−1
ein Konfidenzintervall zur Stichprobe x1 , . . . , xn einer N (µ, σ)-verteilten
Grundgesamtheit, das µ überdeckt.
Dabei ist t das rechte β-Quantil der t-Verteilung (Student-Verteilung)
mit n − 1 Freiheitsgraden.
Beispiel 8 Eine aus einer normalverteiltenPGrundgesamtheit gezogene
Stichprobe vom Umfang 17 ergibt µ̂ = 5 und 1≤i≤17 (xi − µ̂)2 = 25. Welche
Vertrauensgrenzen ergeben sich für den Mittelwert µ bei einer geforderten Konfidenzwahrscheinlichkeit von 99%?
Der benötigte Wert der t-Verteilung ist in der Tabelle der zweiseitigen
1%-Schranken (oder einseitigen 0.5%-Schranken) der t-Verteilung mit 16
Freiheitsgraden nachzuschlagen. Man findet den Wert 2.921.
Damit ergeben sich die Grenzen
r
25
5 ∓ 2.921 ·
,
16 · 17
also 4.11 und 5.89.
7.2.5
K.-I. für den Median µ̃ (Stichprobenumfang n ≥ 9)
Bei nicht normalverteilten Grundgesamtheiten gibt man meist einen
Vetrauensbereich für den Median anstatt für den Mittelwert an (a heißt
Median, wenn P (x ≤ a) ≥ 12 und P (x ≥ a) ≥ 12 gilt).
8
ELEMENTE DER TESTTHEORIE
25
Ordnet man die Werte x1 , . . . , xn einer Stichprobe aufsteigend an,
so erhält man eine neue Folge x(1) , . . . , x(n) . Mit diesen Werten ist (falls
n ≥ 9)
x(h+1) , x(n−h)
ein Konfidenzintervall, das mit Konfidenzwahrscheinlichkeit 1 − 2β den
Median µ̃ überdeckt. Dabei ist
√
n−1−z n
h=b
c
2
(mit der floor-Funktion bxc = max {m ∈ Z|m ≤ x}) und z das rechte βQuantil der N (0, 1)-Verteilung.
Beispiel 9 Ausgehend von den Werten einer Stichprobe vom Umfang n =
50 soll ein Konfidenzintervall angegeben werden, das mit statistischer
Sicherheit von 95% den Median der Grundgesamtheit überdeckt.
Als 2.5%-Quantil der Normalverteilung erhält man den Wert 1.96. Damit ergibt sich
√
50 − 1 − 1.96 50
c = b17.570c = 17 .
h=b
2
Die Vertrauensgrenzen sind auf der Grundlage der geordneten Werte
x(1) , . . . , x(50)
der Stichprobe zu bilden. Man erhält als linke Grenze x(17+1) = x(18) und
als rechte Grenze x(50−17) = x(33) .
8
Elemente der Testtheorie
8.1
8.1.1
Ein Beispiel
Testen der Hypothese “die Münze ist fair”
Von einer Münze mit den Seiten A und Z wird angenommen, dass sie
“fair” ist in dem Sinne, dass nach zufälligem Werfen die A-Seite mit
Wahrscheinlichkeit 0.5 oben liegt.
Wir nehmen uns folgenden Test der Hypothese H0 “die Münze ist
fair” vor: Wir werfen die Münze fünfmal. Wenn dabei das Ereignis AAAAA
oder ZZZZZ eintritt, verwerfen wir H0 , ansonsten nehmen wir H0 an.
Kurz: Über die B(1, p)-verteilten Zufallsvariablen X1 , . . . , X5 wird die
Hypothese H0 : p = 0.5 aufgestellt. Zur Testvariablen
U (X1 , . . . , X5 ) =
5
X
Xi
i=1
geben wir uns die Entscheidungsvorschrift: Verwirf H0 , wenn die Realisierung von U den Wert 0 oder 5 ergibt.
8
ELEMENTE DER TESTTHEORIE
1.00 r
r
0.75
r
r
r
0.50
0.25
0.00
0.00
r
r
r
r
r
r
r
r
rr
rr
rr
rr
0.25
rrr
rrrrrr
26
rrrrrrrrr
rrr
r
r
rr
0.50
rr
r
rr
r
r
r
r
0.75
r
r
r
r
r
r
r
r
1.00
p
Abbildung 1: Gütefunktion des Tests “die Münze ist fair”
8.1.2 α-Fehler und β-Fehler
Mögliche Entscheidungsverläufe dieses Tests:
1. (Berechtigte) Ablehnung von H0 , wenn H0 nicht zutrifft.
2. (Unberechtigte) Ablehnung von H0 , wenn H0 zutrifft (α-Fehler oder
5
Fehler 1. Art); Wahrscheinlichkeit hierfür: 2 · 12 = 0.0625.
3. (Berechtigte) Annahme von H0 , wenn H0 zutrifft.
4. (Unberechtigte) Annahme von H0 , wenn H0 nicht zutrifft (β-Fehler
oder Fehler 2. Art); Wahrscheinlichkeit hierfür: 1 − p5 − (1 − p)5 mit
dem (wahren) Parameter p 6= 21 .
8.1.3
Gütefunktion des Tests
Die Gütefunktion
G(p) = p5 + (1 − p)5
(Abbildung 1) des Tests zeigt die Ablehnwahrscheinlichkeit von H0 als
Funktion von p. An ihr kann man die Wahrscheinlichkeit für den αFehler (G(p), p = 12 ) und für den β-Fehler (1 − G(p), p 6= 21 ) ablesen.
Man erkennt: die Ablehnwahrscheinlichkeit von H0 wird erst groß,
wenn p stark von 12 abweicht.
8.1.4
r
Kritische Bereich und Annahmebereich
Unser Test unterscheidet zwei Teilmengen des Wertebereichs der Testfunktion U :
8
ELEMENTE DER TESTTHEORIE
27
rb br r r r s s s s
1.00 sssss
b r r ss
ss
b r
0.75
0.50
0.25
0.00
0.00
ss ssss
r r r br
ss ss r r b b
ss r r b
s
K1
r
r
b
b
s
s
b r r ss
K2
ss r r b
s
s
b
b
r
r
K3
s
s
r
r
s
s
b
b
r
r
s
s
b
b
s
s
r
r
s
s
b
b
r
r
s
s
r
r
b
b
ss
s
s
r
r
b
b
ss
s
r
r
b
b
ss
ss
r
r
s s ss s s s
b
b
r
r
b
b
r
r
b
b
rr
rr
b
b
r
r
bb
b
rr
r
b
bb
rrrr rrrrr
bb
rr
b
bbb
b
bbbbb
bb
bbbbbbbbbb
b
r
s
0.25
0.50
0.75
1.00
p
Abbildung 2: Gütefunktion für verschiedene kritische Bereiche
• Führt die Realisierung von U zu den Werten 0 oder 5, so verwerfen
wir H0 : Die Menge {0, 5} heißt kritischer Bereich des Tests.
• Führt die Realisierung von U zu einem Wert der Menge {1, 2, 3, 4},
so behalten wir H0 (bis auf weiteres) bei. Die Menge {1, 2, 3, 4} heißt
Annahmebereich des Tests.
8.1.5
Vergrößerung des kritischen Bereichs
Durch Vergrößerung des kritischen Bereichs wird der β-Fehler kleiner,
der α-Fehler dagegen größer.
Abbildung 2 zeigt die Gütefunktionen des Münzwurftests für Stichprobenumfang n = 10 und die kritischen Bereiche K1 = {0, 1, 9, 10},
K2 = {0, 1, 2, 8, 9, 10}, K3 = {0, 1, 2, 3, 7, 8, 9, 10}.
8.1.6
Erhöhung des Stichprobenumfangs
Durch Erhöhung des Stichprobenumfangs wird der α-Fehler kleiner,
der β-Fehler dagegen größer.
Abbildung 3 zeigt die Gütefunktionen Gn des Münzwurftests zum
kritischem Bereich K = {0, 1, 2, 3, n − 3, n − 2, n − 1, n} und Stichprobenumfang n = 10, 13, 16.
8.1.7
Kontrolle des α-Fehlers
α-Fehler wiegen schwerer als β-Fehler. Deshalb gestaltet man Tests so,
dass die Wahrscheinlichkeit für einen α-Fehler unterhalb eines vorgebenen Signifikanzniveaus α bleibt (übliche Werte: α = 0.05, 0.01, 0.001).
Abbildung 4 zeigt die Gütefunktionen Gn der Tests zum Niveau α = 0.05
8
ELEMENTE DER TESTTHEORIE
28
b rb rb
b b rb rsb rsb rsss
s r bb
b b rb r rs s
b
s r b
s
G10 b
bb rrs
s r bb
b
r
s r b
s
G13 r
b r
b
s rr bb
G16 s
b r s
s r
s
b
b
b rr s
s r bb
b
b
b
s r
r s
b
b
r s
s r
bb
b
b
r
s rr
bb
bb
r ss
bb
b
s r
r s
bbbbbbb
s r
r
s r
r s
r
s
s rr
s
r r ss
ss r r r
r
ss r r r r r r r r r ss s
s
s ss
s ss sss s s s s
b rb rb rsb rsb rb rb b b
1.00 rsss
s r b
0.75
0.50
0.25
0.00
0.00
0.25
0.50
0.75
1.00
p
Abbildung 3: Gütefunktion für verschiedene Stichprobenumfänge
br br br r s s
1.00 sssss
r s
0.50
0.05
0.00
s s sssss
r r br br
ss r r b b
b r ss
s
b r s
G9 b
s r b
b rr s
s rr b
r
G
12
b r s
b
s
G17 s
s rr b
b r s
b r s
b
s
b r s
s rr b
b
s
s r b
b
b r s
s
r
r b
b
s
s
r
r
b
b
s r b
b r s
s r b
b r s
b r s
s r b
b r s
s rrbb
bbr s
s
rbb
b br r s
s sr br br b
b br r s s
s
b br br sr s s
s s r br b
b br br sbr ss
br br sbr sbr br br b
0.25
0.50
0.75
p
Abbildung 4: Gütefunktionen zum Signifikanzniveau α = 0.05
1.00
8
ELEMENTE DER TESTTHEORIE
29
mit Stichprobenumfang n = 9, 12, 17 und kritischen Bereichen K9 =
{0, 1, 9, 10}, K12 = {0, 1, 2, 10, 11, 12} bzw. K17 = {0, 1, 2, 3, 4, 13, 14, 15, 16, 17}.
8.1.8
Trennschärfe
Eine wünschenswerte Eigenschaft eines Tests ist die Trennschärfe. Darunter versteht man die Eigenschaft, dass ein Test (neben der Einhaltung der α-Schranke für den Fehler 1. Art) möglichst kleine Werte für
die Wahrscheinlichkeit des Fehlers 2. Art aufweist. Damit “trennt” der
Test die Hypothese H0 möglichst “scharf” von den Alternativen zu H0 .
Im Fall des Münzwurfs heißt dies, dass die Gütefunktion des Tests
für p 6= 12 möglichst große Werte annehmen soll.
Man kann zeigen, dass man “beliebig trennscharfe” Tests erhält,
wenn der Stichprobenumfang entsprechend erhöht werden kann.
8.1.9
Einseitige Alternative H1
Der soeben betrachtete Münzwurftest war symmetrisch in dem Sinn,
dass als Alternative zur Nullhypothese H0 : p = 21 (stillschweigend) die
Hypothese H1 : p 6= 21 betrachtet wurde.
Es kann jedoch in manchen Situationen sinnvoll sein, die Alternative H1 einseitig zu formulieren.
Beispiel 10 S1 fordert S2 zu einer Wette auf. S1 setzt auf A einen gewissen Betrag, S2 soll auf Z einen ebenso großen Betrag setzen. Die Münze
gehört S1 . S2 hat Zweifel, ob die Münze fair ist und vermutet, dass A öfter
fällt als Z.
S2 erhält Gelegenheit für einen Test. S2 nimmt sich vor, die Münze
fünfmal zu werfen und sie zu beanstanden, wenn AAAAA eintritt.
Formale Beschreibung des einseitigen Tests
• H0 : p ≤ 12 , H1 : p > 12 ,
• Testvariable U (X1 , . . . , X5 ) =
P
1≤i≤5
Xi ,
• kritischer Bereich K = {5}.
• Signifikanzniveau α = 0.05
• Gütefunktion: Abbildung 5
Steigerung der Trennschärfe
• H0 : p ≤ 21 , H1 : p > 12 ,
• Testvariable U (X1 , . . . , X16 ) =
P
1≤i≤16
Xi ,
• kritischer Bereich K = {12, 13, 14, 15, 16}.
• Signifikanzniveau α = 0.05
• Gütefunktion: Abbildung 6
8
ELEMENTE DER TESTTHEORIE
30
1.00
0.50
0.05
s s ss
sssssssssssssssssssss ssss ss ss ss s
0.00
0.25
ss s s
s
s
ss s
0.50
ss
s
s
ss
s
s
s
s
s
s
s
0.75
s
s
s
s
s
s
1.00
p
Abbildung 5: Gütefunktion für den einseitigen Test (n = 5)
1.00
0.50
0.05
sssssssssssssssssssssssss ss ss s s
0.00
0.25
ss s
0.50
s
ss
ss
s
s
s
s
s
s
s
s
s
s
s
s
s
s
ss
s ss
0.75
p
Abbildung 6: Gütefunktion für den einseitigen Test (n = 16)
ss ssss
1.00
8
ELEMENTE DER TESTTHEORIE
31
Beispiel 11 (Einseitiger Zeichentest) Zwei Lehrmethoden, A und B,
sollen verglichen werden (angeblich ist B besser als A). Von 16 Zwillingspaaren soll dazu jeweils eine Person mit A, die andere mit B geschult
und dann der Lehrerfolg anhand eines einheitlichen Tests festgestellt
werden.
Ist B besser als A, dann ist der Anteil p der Zwillingspaare, bei denen
mit B ein besseres Resultat als mit A erzielt worden ist, größer als 21 .
Man testet H0 : p ≤ 21 einseitig gegen H1 : p > 12 zum Niveau α = 0.05.
Die Durchführung ergibt: 13 mal hat B zu einem besseren Resultat
geführt als A.
Man kann damit H0 auf dem 5%-Niveau ablehnen und sagen, dass B
besser als A ist.
8.2
8.2.1
Grundsätzliches zum statistischen Test
Hat ein statistischer Test Beweiskraft?
Eine möglicherweise wahre Hypothese über eine statistische Grundgesamtheit wird als H1 -Hypothese, die Gegenhypothese als H0 -Hypothese formuliert. Mit statistischen Tests kann aber eine Hypothese H1 ,
auch wenn sie zutrifft, nicht bewiesen und eine Hypothese H0 , auch
wenn sie falsch ist, nicht einwandfrei widerlegt werden.
Ähnlich wie indirekte mathematische Beweise zielen statistische Tests
darauf ab, die möglicherweise falsche Hypothese H0 zugunsten der Hypothese H1 zu verwerfen, und zwar auf der Grundlage von Testresultaten, die der Hypothese H0 widersprechen. Anstatt auf absolute Beweiskraft kann man sich aber nur auf eine kontrollierbar kleine (aber
positive) Irrtumswahrscheinlichkeit (Signifikanzniveau) berufen.
8.2.2
Asymmetrie zwischen α- und β-Fehler
Statistische Test können versagen, sowohl wenn H0 wirklich falsch ist
und H0 dennoch nicht abgelehnt wird (β-Fehler), als auch wenn H0
zutrifft und trotzdem abgelehnt wird (α-Fehler).
Die Tatsache, dass grundsätzlich bei keinem Test die Wahrscheinlichkeit für beide Fehler gleichzeitig minimimal sein kann, ist der Grund
für die ungleichen Rollen des durch ein vorgegebenes Signifikanzniveau
kontrollierten α-Fehlers und des β-Fehlers, der nur in Teilbereichen
durch Steigerung der Trennschärfe noch verringert werden kann.
8.2.3
Struktur eines statistischen Tests
Über die (teilweise) unbekannte Verteilung einer statistischen Grundgesamtheit sind alternative Hypothesen H0 (möglicherweise falsch) und
H1 (möglicherweise wahr) formuliert.
Stichprobenvariablen X1 , . . . , Xn zur Grundgesamtheit bilden eine
Testgröße Tn (X1 , . . . , Xn ), deren theoretische Verteilungseigenschaften
in Abhängigkeit von den Hypothesen bekannt sind.
8
ELEMENTE DER TESTTHEORIE
32
Stichprobenumfang und kritischer Bereich für die Ablehnung von
H0 sind so festgelegt, dass eine vorgegebene Irrtumswahrscheinlichkeit
für eine fälschliche Ablehnung von H0 nicht überschritten wird.
Liegt der Wert von Tn bei Realisierung der Stichprobe im kritischen
Bereich, wird H0 zugunsten H1 verworfen, sonst angenommen.
8.2.4
Korrektes statistisches Testen
Das zu untersuchende Testproblem ist stets vor der Durchführung des
Tests zu formulieren und darf keinesfalls nachträglich zu Stichprobendaten gewählt werden.
Gelingt es anhand eines geeigneten Tests mit vorgegebener Irrtumswahrscheinlichkeit α nicht, H0 abzulehnen, ist es unzulässig
• andere Tests auszuprobieren,
• α nachträglich zu erhöhen,
• so lange Stichproben zu ziehen, “bis H0 schließlich doch noch
abgelehnt wird”.
8.3
8.3.1
Einige statistische Tests
Test auf den Anteilswert p (zweiseitig, exakt)
Hypothesen:
H0 : p = p0 , H1 : p 6= p0 .
Testgröße:
Tn (X1 , . . . , Xn ) =
X
Xi
1≤i≤n
(mit B(1, p)-verteilten Zufallsvariablen Xi ).
Untere und obere Grenzen Au , Ao des Annahmebereichs für die B(n, p)verteilte Testgröße Tn bei Test auf dem Niveau α:
n
αo
,
Au = min k ∈ N Pp0 (Tn ≤ k) >
2
n
αo
Ao = min k ∈ N Pp0 (Tn ≤ k) ≥ 1 −
.
2
8.3.2
Test auf den Anteilswert p (einseitig, exakt)
Hypothesen:
H0 : p ≤ p0 , H1 : p > p0 .
Testgröße:
Tn (X1 , . . . , Xn ) =
X
Xi
1≤i≤n
(mit B(1, p)-verteilten Zufallsvariablen Xi ).
Untere und obere Grenzen Au , Ao des Annahmebereichs für die B(n, p)verteilte Testgröße Tn bei Test auf dem Niveau α:
Au = 0 ,
Ao = min {k ∈ N |Pp0 (Tn ≤ k) ≥ 1 − α} .
8
ELEMENTE DER TESTTHEORIE
8.3.3
33
Test auf den Anteilswert p (zweiseitig, approximativ)
Die Normalverteilungs-Approximation ist anwendbar, wenn np0 > 5
und n(1 − p0 ) > 5 ist.
H0 : p = p0 , H1 : p 6= p0 .
Tn (X1 , . . . , Xn ) =
1 X
Xi
n
1≤i≤n
(mit B(1, p)-verteilten Zufallsvariablen Xi ).
Untere und
Grenzen
Au , Ao des Annahmebereichs für die an obere
q
0)
-verteilte Testgröße Tn bei Test auf dem Ninähernd N p0 , p0 (1−p
n
veau α:
1
Au = p 0 −
−z
2n
r
p0 (1 − p0 )
,
n
r
1
p0 (1 − p0 )
Ao = p 0 +
+z
.
2n
n
Hierbei ist z das obere α2 -Quantil der N (0, 1)-Verteilung.
8.3.4
Test auf den Anteilswert p (einseitig, approximativ)
Die Normalverteilungs-Approximation ist anwendbar, wenn np0 > 5
und n(1 − p0 ) > 5ist.
H0 : p ≤ p0 , H1 : p > p0 .
Tn (X1 , . . . , Xn ) =
1 X
Xi
n
1≤i≤n
(mit B(1, p)-verteilten Zufallsvariablen Xi ).
Untere und
Grenzen
Au , Ao des Annahmebereichs für die an obere
q
p0 (1−p0 )
nähernd N p0 ,
-verteilte Testgröße Tn bei Test auf dem Nin
veau α:
Au = 0 ,
r
1
p0 (1 − p0 )
.
Ao = p 0 +
+z
n
2n
Hierbei ist z das obere α-Quantil der N (0, 1)-Verteilung.
Beispiel 12 Eine studentische Organisation behauptet, bei den kommenden Senatswahlen seien ihr mindestens 30% der Stimmen sicher
(ein historisches Beispiel, wie man sieht). Diese Behauptung soll statistisch widerlegt werden (α = 0.05), und zwar auf der Basis einer Wählerumfrage bei 65 Wählern.
Wegen 65 · 0.3 > 5 und 65 · 0.7 > 5 ist eine Normalverteilungs-Approximation vertretbar.
H0 : p ≥ 0.3 , H1 : p < 0.3 .
8
ELEMENTE DER TESTTHEORIE
34
P
1
Der Annahmebereich für die Testgröße Tn = 65
1≤i≤65 Xi hat die Grenzen
r
0.3 · 0.7
1
− 1.64 ·
= 0.199 ,
Au = 0.3 −
130
65
Ao = 1 .
Umfrageergebnis: Nur 12 Wähler wollen für die Organisation stimmen.
Der Wert der Testgröße 12
65 = 0.185 liegt im kritischen Bereich, H0 wird
verworfen.
8.3.5
Überprüfen einer Hypothese über p1 , . . . , pn
Die Zufallsvariable X besitze die Ausprägungen 1, . . . , m mit unbekannten Wahrscheinlichkeiten pi = P (X = i).
H0 : pi = p0i für alle i, H1 : pi 6= p0i für mindestens ein i.
n unabhängigen Wiederholungen X1 , . . . , Xn der Zufallsvariablen X
liefern absolute Häufigkeiten ni für die i-te Merkmalsausprägung. Damit bildet man die Testgröße


X n2
1
i 
Tn = 
−n.
n
p0i
1≤i≤m
Annahmebereich für Tn : 0 bis oberes α-Quantil der χ2 -Verteilung mit
m − 1 Freiheitsgraden.
Der Test ist anwendbar, wenn np0i > 1 für alle i und np0i > 5 für
mindestens 80% der i gilt.
Beispiel 13 Ein Würfel soll daraufhin geprüft werden, ob alle Augenzahlen gleich wahrscheinlich sind (p0i = 61 ). Es wird 300 mal gewürfelt.
Es soll auf dem Niveau α = 0.05 getestet werden.
Obergrenze des Annahmebereichs (α-Quantil der χ2 -Verteilung mit 5
Freiheitsgraden): 11.07.
Die Würfelserie bringt die Ergebnisse n1 = 45, n2 = 60, n3 = 55, n4 =
40, n5 = 40, n6 = 60. Der χ2 -Anpassungstest
ist anwendbar.
1
(452 + 2 · 602 + 552 + 2 · 402 ) − 300 = 9 ≤ 11.07.
T300 = 50
Die Nullhypothese kann nicht verworfen werden und ist beizubehalten.
8.3.6
Test auf Poissonverteilung
Die Zufallsvariable X besitze die Ausprägungen 0, 1, 2, . . .. Frage: Ist X
poissonverteilt?
H0 : X ist poissonverteilt,
d.h. es gibt ein λ > 0 mit P (X = i) =
H1 : X ist nicht poissonverteilt.
λi
i!
· e−λ für i ∈ N0 ,
8
ELEMENTE DER TESTTHEORIE
35
Mit den absoluten Häufigkeiten n0 , . . . , nm−1 für die i-te Merkmalsausprägung
P
bei n unabhängigen Wiederholungen von X bildet man λ̂ = n1 0≤i≤m−1 i·
ni und damit die Testgröße


λ̂
X n2 · i!
e
i
−n.
Tn = 
n
λ̂i
0≤i≤m−1
Annahmebereich für Tn : 0 bis oberes α-Quantil der χ2 -Verteilung mit
m − 2 Freiheitsgraden.
λ̂m−1
·e−λ̂ > 1; ggf. fasse man die oberen Klassen
(Anwendbar, falls n· (m−1)!
zusammen.)
8.3.7
Test auf Normalverteilung
Die n-fache unabhängige Wiederholung einer Zufallsvariablen X liefere
Werte in den Klassen Ki =]ei−1 , ei ], i = 1, . . . , m. Frage: Ist X normalverteilt?
H0 : x ist N (µ, σ)-verteilt mit bestimmten Parametern (µ, σ),
H1 : X ist nicht normalverteilt.
Mit µ̂ =
1
n
P
1≤j≤n Xj und σ̂ =
q
1
n−1
·
P
1≤j≤n (Xj
− µ̂)2 und den Besetzungs-
zahlen n1 , . . . , nm der Klassen Ki bildet man die Größen p̂i = Φ( eiσ̂−µ̂ ) −
Φ( ei−1σ̂−µ̂ ) für i = 1 . . . , m und die Testgröße


2
X
1
ni 
Tn = 
−n.
n
p̂i
1≤i≤m
Annahmebereich für Tn : 0 bis oberes α-Quantil der χ2 -Verteilung mit
m − 3 Freiheitsgraden.
(Anwendbar, falls n · p̂i > 1 für alle i und n · p̂i > 5 für mindestens 80%
aller i gilt.)
8.3.8
Test auf Unabhängigkeit zweier Merkmale
Zwei Merkmale (Zufallsvariablen) X und Y einer Grundgesamtheit haben die Ausprägungen {1, . . . , r} bzw. {1, . . . , s}.
Hypothesen:
H0 : X und Y sind unabhängig.
H1 : X und Y sind nicht unabhängig.
Nach N unabhängigen Wiederholungen des Zufallsexperiments (X, Y )
Anzahl des Auftretens
des Ausprägungspaares (i, j),
sei nij die jeweilige
P
P
sowie n.j = 1≤i≤r nij und ni. = 1≤j≤s nij die entsprechenden Marginalhäufigkeiten.
Darstellung der gezählten Häufigkeiten in einer Kontingenztafel:
8
ELEMENTE DER TESTTHEORIE
X=1
X=2
..
.
X=r
36
Y =1
n11
n21
..
.
Y =2
n12
n22
..
.
...
...
...
..
.
Y =s
n1s
n2s
..
.
n1.
n2.
..
.
nr1
n.1
nr2
n.2
...
...
nrs
n.s
nr.
n.. = N
Mit diesen Häufigkeiten bildet man die Testgröße



X 1 X n2ij
 − 1
T N = N · 
ni.
n.j
1≤i≤r
1≤j≤s
Der Annahmebereich für TN erstreckt sich von 0 bis zum oberes αQuantil der χ2 -Verteilung mit (r − 1)(s − 1) Freiheitsgraden (bei vorgegebenem Signifikanzniveau α).
(Anwendbar, falls ni. n.j > N für alle i, j und ni. n.j > 5N für mindestens 80% aller i, j gilt).
Beispiel 14 Es ist zu untersuchen, ob die Religionszugehörigkeit irgendeinen Einfluß auf die Wahl des Ehepartners hat (α = 0.05).
Eine Stichprobenerhebung über die Religionszugehörigkeit der Partner ergibt (mit den Abkürzungen rk: röm.-kath., ev: evangelisch, so: sonstige Bekenntnisse, bl: bekenntnislos, m: männlich, f: weiblich):
m/rk
m/ev
m/so
m/bl
f/rk
9919
782
248
812
11761
f/ev
693
344
27
108
1172
f/so
97
22
134
31
284
f/bl
293
44
22
197
556
11002
1192
431
1148
13773
Der Annahmebereich ist [0, 16.92] (0 bis oberes 5%-Quantil der χ2 -Verteilung
mit 9 Freiheitsgraden). Da der Wert für TN im kritischen Bereich (Ablehnungsbereich) liegt, ist H0 (“Unabhängigkeit”) zu verwerfen.
8.3.9
Vorzeichentest (Mediantest)
Es soll (ohne Annahme über den Verteilungstyp) die relative Lage der
Mediane µ̃x , µ̃y zweier Zufallsvariablen X, Y geprüft werden (“verteilungsfreies” oder “nichtparametrisches” Testverfahren).
Dazu werden Stichproben (Xi , Yi ) vom Umfang n gezogen (Stichproben mit Xi = Yi läßt man unberücksichtigt und reduziert n entsprechend). Man setzt Di = 1, falls Xi > Yi ist und Di = 0, falls Xi < Yi ist.
Damit bildet man die B(n, p)-verteilte Testgröße
X
Tn =
Di .
1≤i≤n
Je nach Testproblem werden für Tn geeignete Hypothesen formuliert
(z.B. H0 : p ≤ 21 stellvertretend für H0 : µ̃x ≤ µ̃y beim entsprechenden
einseitigen Problem).
8
ELEMENTE DER TESTTHEORIE
37
Beispiel 15 Es ist statistisch abzusichern (α = 0.05), dass man bei Verwendung eines Düngemittels A unter gleichen Bedingungen einen besseren Ertrag erzielt als mit einem Düngemittel B. Dazu werden n = 20
Kontrollflächen gebildet, die je zur Hälfte mit A und mit B gedüngt werden.
Die Erträge (ai , bi ) der i-ten Kontrollfläche bewertet man mit
P Di = 1
für ai > bi und mit Di = 0 für ai < bi . Für die Testgröße T20 = 1≤i≤20 Di
erhält man den Annahmebereich {0, . . . , 14} bei H0 : p ≤ 12 .
Die Durchführung des Tests liefere für (ai , bi ) die Werte (46, 48), (58, 49),
(50, 49), (50, 48), (52, 45), (46, 47), (46, 42), (58, 56), (55, 56), (45, 50), (48, 40),
(60, 55), (52, 49), (40, 38), (44, 47), (50, 45), (50, 49), (56, 54), (44, 42), (60, 50).
Wegen T20 = 15 ist damit auf dem Niveau α = 0.05 die Überlegenheit von
A statistisch nachgewiesen.
8.3.10
Erwartungswert einer normalverteilten Größe
Von der Zufallsvariablen X sei bekannt, dass sie (näherungsweise) N (µ, σ)verteilt ist (mit unbekannten µ und σ). Es sollen Nullhypothesen der
Form µ = µ0 (bzw. µ ≥ µ0 oder µ ≤ µ0 ) anhand einer Stichprobe
x1 , . . . , xn geprüft werden.
Hierzu ist die Testgröße
√
(µ̂ − µ0 ) n
Tn =
σ̂
q
P
P
1
2
mit µ̂ = n1 1≤j≤n Xj und σ̂ =
1≤j≤n (Xj − µ̂) zu bilden. Tn ist
n−1
t-verteilt mit n − 1 Freiheitsgraden (für n > 30 näherungsweise auch
N (0, 1)-verteilt).
Je nach Testproblem (einseitig, zweiseitig) ist ein entsprechender
Annahmebereich zum vorgegebenen Signifikanzniveau zu konstruieren.
Beispiel 16 Das Nettoeinkommmen von Studenten sei annähernd normalverteilt. Auf dem Signifikanzniveau α = 0.05 soll getestet werden, ob
die Behauptung widerlegt werden kann, das durchschnittliche monatliche Nettoeinkommen von Studenten betrage mindestens 1625 DM (auch
dies also ein historisches Beispiel). Dazu soll eine Stichprobe mit Umfang
n = 20 herangezogen werden.
√
20
.
Testproblem: H0 : µ ≥ 1625, H1 : µ < 1625. Testgröße: T20 = (µ̂−1625)
σ̂
Das untere 5%-Quantil der t-Verteilung mit 19 Freiheitsgraden ist −1.729.
Der Annahmebereich für T20 ist daher [−1.729, ∞[.
√
20
Die Stichprobe ergebe µ̂ = 1600 und σ̂ = 42. T20 = (1600−1625)
=
42
−2.662 ist damit im Ablehnungsbereich und H0 wird zugunsten von H1
verworfen.
8.3.11
Varianz einer normalverteilten Größe
Von der Zufallsvariablen X sei bekannt, dass sie (näherungsweise) N (µ, σ)verteilt ist (mit unbekannten µ und σ). Es sollen Nullhypothesen der
8
ELEMENTE DER TESTTHEORIE
38
Form σ 2 = σ02 (bzw. σ 2 ≥ σ02 oder σ ≤ σ02 ) anhand einer Stichprobe
X1 , . . . , Xn geprüft werden.
Hierzu ist die Testgröße
Tn = (n − 1) ·
mit µ̂ =
1
n
P
1≤j≤n Xj und σ̂ =
q
1
n−1
σ̂ 2
σ02
P
1≤j≤n (Xj
− µ̂)2 zu bilden.
Tn ist χ2 -verteilt mit n − 1 Freiheitsgraden.
Je nach Testproblem (einseitig, zweiseitig) ist ein entsprechender
Annahmebereich zum vorgegebenen Signifikanzniveau zu konstruieren.
Beispiel 17 In der Massenproduktion eines Industrieprodukts sei das
Merkmal X annähernd normalverteilt (z.B. Wandstärke von Glasröhren).
Wenn im Produktionsprozeß größere Störungen (z.B. Verschleiß von Maschinen) auftreten, wird sich zusätzlich zum Mittelwert µ von X auch die
Varianz σ 2 ändern.
Neben µ wird daher meist auch σ 2 als Maß für die Homogenität der
Produktion überprüft. Da sich σ 2 durch Verschleiß meist vergrößert, testet
man die Hypothese H0 : σ 2 ≤ σ02 gegen H1 : σ 2 > σ02 in regelmäßigen
Abständen, um rechtzeitig auf Verschleiß der Werkzeuge aufmerksam zu
werden.
8.4
8.4.1
Regressionsanalyse
Lineare Regression
Sei (x, Y ) ein zweidimensionales Merkmal. x sei keine Zufallsvariable,
sondern ein willkürlich festlegbarer Parameter. Y sei eine Zufallsvariable, deren Verteilung vom gewählten Parameter x abhängt.
Beispiel 18 x sei die Körpergröße (in cm) von Personen in einem bestimmten Gebiet, Y deren Körpergewicht (in kg). Für jedes x wird man
eine bestimmte Verteilung von Y feststellen. Die Frage ist, wie die statistische Größe Y vom Parameter x abhängt.
Wir nehmen an, daß für jedes x die Größe Y einer N (µ(x), σ)-Verteilung
genügt und untersuchen unter dieser Voraussetzung den funktionalen
Zusammenhang zwischen x und µ(x) (Regressionsfunktion). Die Regression von Y bzgl. x ist linear, wenn µ(x) = a + bx für alle x gilt.
8.4.2
Stichproben zur Regressionsanalyse
Bei Untersuchungen der Regression werden Stichproben für (x, Y ) erhoben, indem zu festen Parametern x = xi (i = 1, . . . , k) die Zufallsvariable y ni -mal unabhängig gemessen wird.
Es liegen dann Stichprobenwerte in folgender Form vor:
(x1 , y11 ),
(x2 , y21 ),
..
.,
(x1 , y12 ),
(x2 , y22 ),
..
.
. . .,
. . .,
(x1 , y1n1 )
(x2 , y2n2 )
..
.
(xk , yk1 ),
(xk , yk2 ),
. . .,
(xk , yknk )
8
ELEMENTE DER TESTTHEORIE
39
Aus diesen Werten werden Hilfsgrößen gebildet, die für den Test auf
“lineare Regression” und ggf. zur Darstellung der Regressionsgerade
benötigt werden.
8.4.3
Hilfsgrößen für die Regressionsanalyse
• n = n1 + n2 + . . . + nk ,
Pk
• x.. = i=1 ni xi ,
Pni
• yi. = j=1
yij und
Pk
y.. = i=1 yi. ,
P
x2..
k
1
2
• s2x = n−1
i=1 ni xi − n ,
P
Pni 2 y..2 k
1
• s2y = n−1
i=1
j=1 yij − n ,
P
k
x.. y..
1
• sxy = n−1
,
i=1 xi yi. − n
• byx =
8.4.4
sxy
s2x
und ayx =
x.. −byx y..
.
n
Test auf lineare Regression
H0 : Die Regression von y bzgl. x ist linear, d.h. es gibt a, b ∈ R mit
µ(x) = a + bx.
H1 : Die Erwartungswerte µ(x) hängen nicht linear vom Parameterwert
x ab.
Die Testgröße
P
s2xy
k
1 2
1 2
i=1 ni yi. − n y.. − s2x
k−1
Tn =
· Pk Pni
Pk 1 2
2
n−k
yi.
i=1
j=1 yij −
i=1
ni
ist Fk−2;n−k -verteilt.
Der Annahmebereich zum vorgegebenen Signifikanzniveau α erstreckt
sich von 0 bis zum rechten α-Quantil dieser F -Verteilung.
8.4.5
Bemerkungen zum Test auf lineare Regression
Wird H0 nicht abgelehnt, so ist lineare Regression anzunehmen. Die
auf Grund der Stichprobenwerte gefundene Regressionsgerade
µ̂(x) = ayx + byx x
ist dann die “beste Schätzung” für den unbekannten linearen Zusammenhang des Erwartungswertes von Y und dem Parameter x. Sie stimmt
mit der Ausgleichsgeraden nach der “Methode der kleinsten Quadrate”
überein.
Oft wird eine lineare Regression von Y bzgl. x nicht über den gesamten Parameterbereich von x vorliegen. In diesem Fall betrachte man nur
Paramterwerte x in einem geeignet eingeschränkten Bereich.
8
ELEMENTE DER TESTTHEORIE
8.5
40
Korrelationsanalyse
Bei der Korrelationsanalyse betrachtet man einen zweidimensionalen
Zufallsvektor (X, Y ), der aus normalverteilten Zufallsvariablen X und
Y besteht. Dabei geht man von folgenden Annahmen aus:
1. X ist N (µ1 , σ1 )-verteilt, Y ist N (µ2 , σ2 )-verteilt. µ1 , µ2 und σ1 , σ2 seien fest, aber unbekannt.
2. Unter der Bedingung X = x ist die Zufallsvariable Y normalverteilt
mit Erwartungswert µ(x) = µ2 + ρ · σσ12 · (x − µ1 ) und Varianz σ 2 =
(1 − ρ2 )ρ22 .
Die Konstante ρ heißt Korrelationskoeffizient von X und Y . Durch die
Angabe von µ1 , µ2 , σ1 , σ2 , ρ ist die gemeinsame zweidimensionale Normalverteilung von X und Y eindeutig bestimmt.
8.5.1
Zusammenhang mit Regressionsanalyse
Fasst man X als Parameter auf, so erfüllt das Paar (X, Y ) die Voraussetzungen der Regressionsanalyse, denn der Erwartungswert von
Y hängt linear von x ab und die Varianz von Y hängt nicht von x ab.
Die Gerade
σ1
· (x − µ1 )
µ(x) = µ2 + ρ ·
σ2
heißt Regressionsgerade von Y bezüglich X.
8.5.2
Bedeutung des Korrelationskoeffizienten
Fall ρ = 0 Die Zufallsvariablen X und Y sind unabhängig.
Fall 0 < ρ < 1 Die Zufallsvariablen X und Y sind positiv korreliert,
d.h. große X-Werte treten im Mittel mit großen Y -Werten auf. Die Regressionsgerade ist fallend.
Fall −1 < ρ < 0 Die Zufallsvariablen X und Y sind negativ korreliert,
d.h. große X-Werte treten im Mittel mit kleinen Y -Werten auf. Die Regressionsgerade ist fallend.
Fall ρ = 1 oder ρ = −1 Die Werte von (X, Y ) liegen auf einer Geraden,
die mit der Regressionsgeraden identisch ist. In diesem Fall bestimmt
der Wert der Variablen X = x vollständig den Wert von Y , nämlich
Y (x) = µ(x). Y ist in diesem Fall keine “echte” Zufallsvariable.
8.5.3
Zwei Testprobleme der Korrelationsanalyse
Die bei der Korrelationsanalyse verwendeten Größen sind zu denen der
Regressionsanalyse ähnlich. Bei der Korrelationsanalyse kann man allerings nicht davon ausgehen, dass zu festen x-Werten mehrere y-Werte
gemessen werden, da die Ausprägungen von X zufällig sind. Man geht
8
ELEMENTE DER TESTTHEORIE
41
deshalb einfach von einer Stichprobe (x1 , y1 ), . . . , (xn , yn ) aus und bildet
die Größen
• n Stichprobenumfang
Pn
Pn
1
• s2x = n−1
( i=1 x2i − n1 ( i=1 xi )2 ),
Pn
Pn
1
• s2y = n−1
( i=1 yi2 − n1 ( i=1 yi )2 ),
Pn
Pn
Pn
1
• sxy = n−1
( i=1 xi yi − n1 ( i=1 xi ) · ( i=1 yi )),
• r=
sxy
sx sy
• byx =
sxy
s2x
(Stichprobenkorrelationskoeffizient),
und ayx =
1
n
Pn
i=1
xi − byx ·
1
n
Pn
i=1 .
Test auf Unabhängigkeit von X und Y
• Testproblem: H0 : ρ = 0, H1 : ρ 6= 0.
• Testgröße: Tn = (n − 2) ·
s2xy
s2x s2y −s2xy
• Verteilung: F1,n−2
Test für den Korrelationskoeffizienten
• Testprobleme:
– H 0 : ρ ≤ ρ0 , H 1 : ρ > ρ 0
– H 0 : ρ ≥ ρ0 , H 1 : ρ < ρ 0
– H0 : ρ = ρ0 , H1 : ρ 6= ρ0
q
q
√
1+ρ0
1+r
− ln 1−ρ
• Testgröße: Tn = n − 3 ln 1−r
0
• Verteilung: N (0, 1) für n > 30.
8.6
Nichtparametrische Tests
Bei den bisher besprochenen Tests wurden fast immer Annahmen über
die Verteilung der Grundgesamtheit getroffen, wie z.B. die, dass eine
normalverteilte Grundgesamtheit vorliegt. In der Praxis kann es vorkommen, dass solche Annahmen nicht nachgeprüft werden können
und zweifelhaft sind. Für solche Fälle gibt es nichtparametrische Tests,
die unabhängig von Verteilungsannahmen sind. Wir stellen exemplarisch zwei solche Tests vor.
8
ELEMENTE DER TESTTHEORIE
8.6.1
42
Vorzeichentest
Der Vorzeichentest ist ein einfacher Test für eine quantitative Messgröße bei zwei verbundenen Beobachtungen. Es seien X und Y zwei
Merkmale einer Grundgesamtheit, die gemeinsam die zweidimensionale Zufallsvariable (X, Y ) bilden. Sei S die daraus konstruierte eindi−X
(“Vorzeichen von Y −X”). Die i-ten
mensionale Zufallsvariable S = |YY −X|
Realisierungen der Zufallsvariablen seien xi , yi bzw. si . Realisierungen
mit yi − xi = 0 lässt man weg (der Stichprobenumfang reduziert sich
dadurch ggf.).
• Testgröße: S
• Verteilung: B(n, p) mit p = P (S = 1)
• Idee: X und Y sind genau dann gleich verteilt, wenn p =
• Testproblem: H0 : p = 12 , H1 : p 6=
8.6.2
1
2
ist.
1
2
U-Test nach Mann-Whitney-Wilcoxon
Der U-Test nach Mann-Whitney-Wilcoxon ist ein nichtparametrischer
Test für zwei unverbundene Stichproben. Es seien X und Y unverbundene Zufallsvariablen und x1 , . . . , xN1 bzw. y1 , . . . , yN2 die zugehörigen
Stichprobenwerte, wobei N1 ≤ N2 sei. Die beiden Stichproben werden
gemeinsam zur aufsteigenden Folge z1 , . . . , zN geordnet (N = N1 + N2 )
und folgendermaßen mit Rangzahlen r1 , . . . , rN versehen: Falls zi−1 <
zi < zi+1 ist, sei ri = i. Falls zi−k < zi−k+1 = . . . = zi = . . . = zi+l−1 < zi+l
. Dadurch erhält man für jedes P
xi eine Rangzahl
ist, sei ri = 2i−k+l
2
r(xi ) und
für
jedes
y
eine
Rangzahl
r(y
).
Seien
R
=
i
i
1
1≤i≤N1 r(xi ) und
P
R2 = 1≤i≤N2 r(yi ).
• Testgröße: U = N1 N2 + N1 (N21 +1) −R1 mit Erwartungswert µU =
(N +1)
2
und Varianz σU
= N1 N212
.
N1 N2
2
• Verteilung: N (µU , σU )(näherungsweise, falls N1 ≥ 8 und N2 ≥ 8)
• Idee: X und Y sind genau dann gleich verteilt, wenn U nahe bei
µU liegt.
• Testproblem: H0 :
U −µU
σU
= 0, H1 :
U −µU
σU
6= 0.
LITERATUR
43
Literatur
[1] http://wiwi.uni-giessen.de/home/rinne/statwas
[2] NIST/SEMATECH e-Handbook of Statistical Methods http://www.
itl.nist.gov/div898/handbook
Inhaltsverzeichnis
1 Was ist Statistik?
1.1 Eine wissenschaftliche Methode . . . . . . . . . . . . . . . .
1.2 Gegenstand der schließenden Statistik . . . . . . . . . . . .
2
2
2
2 Merkmale
2.1 Messbarkeitseigenschaften von Merkmalen . . . . . . . . .
2.2 Diskrete und stetige Merkmale . . . . . . . . . . . . . . . . .
2
2
2
3 Häufigkeiten
3.1 Absolute und relative Häufigkeit (1) . . .
3.2 Klassierung von Merkmalswerten . . . .
3.3 Absolute und relative Häufigkeit (2) . . .
3.4 Absolute und relative Häufigkeitsdichte
3.5 Relative Summenhäufigkeit . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3
3
3
3
4
4
4 Wahrscheinlichkeit
4.1 Wahrscheinlichkeit (empirisch) . . . . . . . .
4.2 Wahrscheinlichkeit (axiomatisch) . . . . . . .
4.3 Ereignisse . . . . . . . . . . . . . . . . . . . . .
4.4 Produkträume . . . . . . . . . . . . . . . . . .
4.5 Erwartungswert einer relativen Häufigkeit . .
4.6 Was ist Wahrscheinlichkeit? . . . . . . . . . .
4.7 Modellbildung . . . . . . . . . . . . . . . . . .
4.7.1 Alles in Ordnung? . . . . . . . . . . . .
4.7.2 Modell . . . . . . . . . . . . . . . . . . .
4.8 Die Ereignisalgebra F . . . . . . . . . . . . . .
4.9 Gleichwahrscheinlichkeit und Kombinatorik
4.9.1 Permutationen und Kombinationen . .
4.9.2 Permutationen mit Nebenbedingungen
4.10 Verteilung, Verteilungsfunktion . . . . . . . .
4.11 Varianz, Kovarianz . . . . . . . . . . . . . . . .
4.12 Die Tschebyscheffsche Ungleichung . . . . .
4.13 Gemeinsame Verteilung, Unabhängigkeit . . .
4.14 Eine Eigenschaft unabhängiger Variabler . .
4.15 Eigenschaften der Varianz . . . . . . . . . . .
4.16 Schwaches Gesetz der großen Zahlen . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
4
4
5
5
5
6
6
6
6
7
7
8
8
8
9
9
9
10
10
11
11
.
.
.
.
.
.
.
.
.
.
INHALTSVERZEICHNIS
44
5 Spezielle Verteilungen
5.1 Die Binomialverteilung . . . . . . . . . . . . . . . . . . .
5.2 Die Normalverteilung . . . . . . . . . . . . . . . . . . . .
5.2.1 Als Grenzwert binomialverteilter Zufallsvariablen
5.2.2 Gaußsche Fehlerfunktion und Normalverteilung
5.2.3 Zentraler Grenzwertsatz . . . . . . . . . . . . . . .
5.2.4 Approximation von B(n, p) durch N (0, 1) . . . . .
5.3 Die Poissonverteilung . . . . . . . . . . . . . . . . . . . .
5.3.1 Inanspruchnahme einer Bedienstelle . . . . . . .
5.3.2 Die Poissonverteilung P(λ) . . . . . . . . . . . . .
5.3.3 Momente der Poissonverteilung . . . . . . . . . .
5.3.4 Summen poissonverteilter Zufallsvariabler . . . .
5.3.5 Approximation der Poissonverteilung . . . . . . .
5.4 Die Hypergeometrische Verteilung . . . . . . . . . . . . .
5.5 Zufallsvariablen mit unendlich vielen Werten . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
12
12
12
12
14
15
16
16
16
16
17
17
18
18
19
6 Stichproben und deren Verwendung
6.1 Stichproben . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.2 Schätzen . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.3 Testen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
19
19
19
20
7 Elemente der Schätztheorie
7.1 Ein Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.1.1 Schätzung eines Fehleranteils . . . . . . . . . . . .
7.1.2 Eigenschaften der Schätzfunktion p̂ . . . . . . . . .
7.1.3 Konfidenzintervalle für p . . . . . . . . . . . . . . .
7.1.4 Approximative Konfidenzintervalle . . . . . . . . . .
7.2 Konfidenzintervalle . . . . . . . . . . . . . . . . . . . . . .
7.2.1 K.-I. für p (Normalverteilungsapproximation) . . . .
7.2.2 K.-I. für p (exakt) . . . . . . . . . . . . . . . . . . . .
7.2.3 K.-I. für µ einer N (µ, σ)-Verteilung (σ bekannt) . . .
7.2.4 K.-I. für µ einer N (µ, σ)-Verteilung (σ unbekannt) .
7.2.5 K.-I. für den Median µ̃ (Stichprobenumfang n ≥ 9)
.
.
.
.
.
.
.
.
.
.
.
20
20
20
20
21
21
22
22
23
23
24
24
8 Elemente der Testtheorie
8.1 Ein Beispiel . . . . . . . . . . . . . . . . . . . . . .
8.1.1 Testen der Hypothese “die Münze ist fair”
8.1.2 α-Fehler und β-Fehler . . . . . . . . . . . .
8.1.3 Gütefunktion des Tests . . . . . . . . . . .
8.1.4 Kritische Bereich und Annahmebereich .
8.1.5 Vergrößerung des kritischen Bereichs . . .
8.1.6 Erhöhung des Stichprobenumfangs . . . .
8.1.7 Kontrolle des α-Fehlers . . . . . . . . . . .
8.1.8 Trennschärfe . . . . . . . . . . . . . . . . .
8.1.9 Einseitige Alternative H1 . . . . . . . . . .
8.2 Grundsätzliches zum statistischen Test . . . . .
8.2.1 Hat ein statistischer Test Beweiskraft? . .
8.2.2 Asymmetrie zwischen α- und β-Fehler . .
8.2.3 Struktur eines statistischen Tests . . . . .
8.2.4 Korrektes statistisches Testen . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
25
25
25
26
26
26
27
27
27
29
29
31
31
31
31
32
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
ABBILDUNGSVERZEICHNIS
45
8.3 Einige statistische Tests . . . . . . . . . . . . . . . . . . . .
8.3.1 Test auf den Anteilswert p (zweiseitig, exakt) . . . . .
8.3.2 Test auf den Anteilswert p (einseitig, exakt) . . . . .
8.3.3 Test auf den Anteilswert p (zweiseitig, approximativ)
8.3.4 Test auf den Anteilswert p (einseitig, approximativ) .
8.3.5 Überprüfen einer Hypothese über p1 , . . . , pn . . . . .
8.3.6 Test auf Poissonverteilung . . . . . . . . . . . . . . .
8.3.7 Test auf Normalverteilung . . . . . . . . . . . . . . .
8.3.8 Test auf Unabhängigkeit zweier Merkmale . . . . . .
8.3.9 Vorzeichentest (Mediantest) . . . . . . . . . . . . . . .
8.3.10Erwartungswert einer normalverteilten Größe . . . .
8.3.11Varianz einer normalverteilten Größe . . . . . . . . .
8.4 Regressionsanalyse . . . . . . . . . . . . . . . . . . . . . . .
8.4.1 Lineare Regression . . . . . . . . . . . . . . . . . . . .
8.4.2 Stichproben zur Regressionsanalyse . . . . . . . . .
8.4.3 Hilfsgrößen für die Regressionsanalyse . . . . . . . .
8.4.4 Test auf lineare Regression . . . . . . . . . . . . . . .
8.4.5 Bemerkungen zum Test auf lineare Regression . . .
8.5 Korrelationsanalyse . . . . . . . . . . . . . . . . . . . . . . .
8.5.1 Zusammenhang mit Regressionsanalyse . . . . . . .
8.5.2 Bedeutung des Korrelationskoeffizienten . . . . . . .
8.5.3 Zwei Testprobleme der Korrelationsanalyse . . . . .
8.6 Nichtparametrische Tests . . . . . . . . . . . . . . . . . . . .
8.6.1 Vorzeichentest . . . . . . . . . . . . . . . . . . . . . .
8.6.2 U-Test nach Mann-Whitney-Wilcoxon . . . . . . . . .
32
32
32
33
33
34
34
35
35
36
37
37
38
38
38
39
39
39
40
40
40
40
41
42
42
Abbildungsverzeichnis
1
2
3
4
5
6
Gütefunktion des Tests “die Münze ist fair” . . . . .
Gütefunktion für verschiedene kritische Bereiche .
Gütefunktion für verschiedene Stichprobenumfänge
Gütefunktionen zum Signifikanzniveau α = 0.05 . . .
Gütefunktion für den einseitigen Test (n = 5) . . . .
Gütefunktion für den einseitigen Test (n = 16) . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
26
27
28
28
30
30
Index
F -Verteilung, 23
H0 -Hypothese, 31
H1 -Hypothese, 31
α-Fehler, 26
β-Quantil der N (0, 1)-Verteilung, 22
β-Fehler, 26
β-Quantil der F -Verteilung, 23
β-Quantil der t-Verteilung, 24
t-Verteilung, 24
B(n, p)-verteilt, 12
H(N, M, n)-verteilt, 18
N (0, 1)-verteilt, 15
N (m, σ)-verteilt, 15
P(λ)-verteilt, 17
Ablehnwahrscheinlichkeit, 26
Annahmebereich, 27
Ausprägung, 2
Binomialkoeffizient, 8
binomialverteilt, 12
Binomialverteilung, 12
einseitig, 29
einseitiger Test, 29
Entscheidungsvorschrift, 25
Ereignis, 5
Ergebnis, 4
erwartungstreu, 20
Erwartungswert, 5
Indikatorfunktion, 5
inferentielle Statistik, 2
Intervallschätzung, 19
Irrtumswahrscheinlichkeit, 32
Kardinalskala, 2
Klassen, 3
Kollektive, 2
Konfidenzintervall, 21
Konfidenzwahrscheinlichkeit, 21
konsistent, 20
Konvergenz nach Wahrscheinlichkeit, 11
Korrelationsanalyse, 40
Korrelationskoeffizient, 40
korreliert, negativ, 40
korreliert, positiv, 40
kritischer Bereich, 27
lineare Regression, 38
Massen, statistische, 2
Median, 24
Merkmal, 2
Merkmal, diskretes, 2
Merkmal, qualitatives, 2
Merkmal, quantitatives, 2
Merkmal, stetiges, 2
Mutungsintervall, 21
Fehler 1. Art, 26
Fehler 2. Art, 26
Fehleranteil, 20
Fehlerwahrscheinlichkeit, 21
floor-Funktion, 25
Gütefunktion, 26
Gaußsche Fehlerfunktion, 14
Gesamtheiten, statistische, 2
Grenzwertsatz seltener Ereignisse,
17
Häufigkeit, absolute, 3
Häufigkeit, relative, 3, 4
Häufigkeitsdichte, absolute, 4
Häufigkeitsdichte, relative, 4
hypergeometrisch verteilt, 18
Hypothese, 20
Hypothese H0 annehmen, 25
Hypothese H0 testen, 25
Hypothese H0 verwerfen, 25
nichtparametrische Tests, 36
Nominalskala, 2
normalverteilt, 15
Normalverteilung, 12
Nullhypothese, 29
Ordinalskala, 2
Permutation, 8
Poissonverteilung, 17
Populationen, 2
Produktraum, 5
Punktschätzung, 19
46
INDEX
r-Kombination, 8
Rangskala, 2
Realisierung, 20
Regression, 38
Regressionsfunktion, 38
Regressionsgerade, 40
schätzen, 19
Schätzfunktion, 20
Schätztheorie, 19
Schätzung, 19
Schätzwert, 20
schwaches Gesetz der großen Zahlen, 11
Signifikanzniveau, 27
Skala, metrische, 2
Standardabweichung, 9
standardnormalverteilt, 15
Statistik, 2
Statistik, induktive, 2
Statistik, inferentielle, 2
Statistik, schließende, 2
statistische Sicherheit, 21
statistischer Test, 20
Stichprobe, 2, 19
Stichprobenumfang, 19
Streuung, 9
Student-Verteilung, 24
Summenhäufigkeit, relative, 4
Testgrose, 31
Testtheorie, 19
Testvariable, 25
Trennschärfe, 29
Tschebyscheffsche Ungleichung, 10
unabhängig, 10
unbiased, 20
unverzerrt, 20
Varianz, 9
Verteilung, 9
Verteilung, gemeinsame, 10
verteilungsfreie Tests, 36
Verteilungsfunktion, 9
Verteilungsfunktion, gemeinsame,
10
Vertrauensgrenzen, 21
verwerfen, 20
Wahrscheinlichkeit, 6
47
Wahrscheinlichkeit eines Ereignisses, 5
Wahrscheinlichkeit, axiomatische,
5
Wahrscheinlichkeit, empirische, 4
Wahrscheinlichkeitsraum, endlicher,
5
Wahrscheinlichkeitstheorie, 2
Zentraler Grenzwertsatz, 15
Ziehen ohne Zurücklegen, 18
Zufälligkeit, 19
Zufallsvariable, 5
Herunterladen