Statistik c Manfred Gruber, Hochschule München Version vom 2. April 2008 1 1 WAS IST STATISTIK? 1 1.1 2 Was ist Statistik? Eine wissenschaftliche Methode Statistik ist die wissenschaftliche Methode, die Aussagen über statistische Gesamtheiten auf der Grundlage von Zählungen oder Messungen der Merkmalsausprägungen ihrer Elemente macht. Eine ausführlichere Definition der Statistik, insbesondere der schließenden (inferentiellen) Statistik als wissenschaftliche Disziplin, findet man z.B. in [1]. 1.2 Gegenstand der schließenden Statistik Gegenstand der schließenden (induktiven, inferentiellen) Statistik, mit der wir uns in dieser Vorlesung befassen, sind statistische Gesamtheiten, (statistische Massen, Kollektive, Populationen). Die Elemente einer statistischen Gesamtheit sind durch definierende Eigenschaften eindeutig festgelegt und tragen gemeinsame Merkmale. Sie haben bezüglich dieser Merkmale eine bestimmte Ausprägung. In der schließenden Statistik wird von der Auswertung einer echten Teilmenge der statistischen Gesamtheit, einer Stichprobe, auf Eigenschaften der statistischen Gesamtheit geschlossen (Testtheorie, Schätztheorie). Solche Schlüsse sind mit Unsicherheit behaftet. Diese Unsicherheit wird mit Hilfe der Wahrscheinlichkeitstheorie abgeschätzt und durch geeignete Vorgehensweisen möglichst gering gehalten. Eine ausgezeichnete Referenz für den Statistikanwender ist [2]. 2 2.1 Merkmale Messbarkeitseigenschaften von Merkmalen Die Ausprägungen (Werte) eines Merkmals können einer Nominalskala, einer Ordinalskala oder einer Kardinalskala entstammen. Bei einer Nominalskala sind die Werte nicht geordnet (qualitatives Merkmal). Bei einer Ordinalskala (Rangskala) sind die Werte nach einem sachlichen Kriterium geordnet, Größenverhältnisse zwischen den Werten sind nicht gegeben oder bedeutungslos. Bei einer Kardinalskala (metrische Skala) sind die Werte reelle Zahlen und die Größenverhältnisse haben Aussagekraft (quantitatives Merkmal). Wenn nicht ausdrücklich etwas anderes gesagt wird, soll stets angenommen werden, dass eine Kardinalskala vorliegt. 2.2 Diskrete und stetige Merkmale Ein diskretes Merkmal kann nur isolierte Zahlenwerte und darüber hinaus keine weiteren Zwischenwerte annehmen. Ein stetiges Merkmal kann (theoretisch) ein Kontinuum von Werten, also alle Werte eines Intervalls der reellen Zahlen annehmen. Auch Stichprobenauswertungen von stetigen Merkmalen liefern in der Regel wegen der begrenzten Messgenauigkeit isolierte Werte als Merkmalsausprägungen. 3 HÄUFIGKEITEN 3 3.1 3 Häufigkeiten Absolute und relative Häufigkeit (1) Eine statistische Erhebung liefert eine endliche Folge y1 , . . . , yn von Werten, nämlich die der Reihe nach gemessenen Merkmalsausprägungen der untersuchten Elemente der statistischen Gesamtheit. Im Falle eines diskreten Merkmals mit wenig verschiedenen möglichen Werten x1 , . . . , xm bestimmt man zu jedem xi durch Zählung der yj , die mit xi übereinstimmen, die absolute Häufigkeit ni = #{j|yj = xi } (# . . . bedeutet “Anzahl der Elemente der Menge . . .”) und die relative Häufigkeit ni hi = n des Auftretens von xi . 3.2 Klassierung von Merkmalswerten Ist die Zahl der möglichen Merkmalsausprägungen zu groß, um Erhebungsdaten durch Häufigkeitsfunktionen praktikabel darzustellen, so bildet man Klassen (meist Intervalle) von Merkmalswerten. Man unterscheidet dann Merkmalswerte nicht mehr, die in die gleiche Klasse fallen (verzichtet allerdings dadurch auf Information). Die Klassenintervalle sollen bis auf die Randintervalle gleich breit sein, nicht überlappen und alle möglichen Merkmalswerte überdecken. Anzahl der Merkmalsausprägungen ≈ 102 ≈ 103 ≈ 104 ≈ 105 Mindestzahl der Klassen ≥ 10 ≥ 13 ≥ 16 ≥ 20 Tabelle 1: Mindestzahl von Klassen nach DIN 55302 3.3 Absolute und relative Häufigkeit (2) Sind die möglichen Werte eines Merkmals durch Klassierung in Klassenintervalle I1 , . . . , Ik aufgeteilt, wählt man als Repräsentanten für die jeweilige Klasse feste Werte x1 ∈ I1 , . . . , xk ∈ Ik (z.B. Klassenmitten oder linke oder rechte Klassengrenzen) und bestimmt durch Zählung der Erhebungswerte yi (1 ≤ j ≤ n), die in die Klasse Ii fallen, die absolute Häufigkeit ni = #j|yj ∈ Ii 4 WAHRSCHEINLICHKEIT 4 und die relative Häufigkeit hi = ni n von Werten yi ≈ xi . 3.4 Absolute und relative Häufigkeitsdichte Wenn für die Werte eines Merkmals einer statistischen Grundgesamtheit eine Klassierung durchgeführt worden ist, hängen die Werte der zugehörigen absoluten und relativen Häufigkeit von der speziellen Wahl der Klassen Ii ab, insbesondere von der Wahl ihrer Klassenbreiten ∆xi . Um die absoluten und relativen Häufigkeiten zu verschiedenen Klassierungen sinnvoll vergleichen zu können, betrachtet man die absolute (mittlere) Häufigkeitsdichte ni ∆xi und die relative (mittlere) Häufigkeitsdichte fi = 3.5 ni hi = . ∆xi n · ∆xi Relative Summenhäufigkeit Eine Grundgesamtheit kann anstatt durch die relative Häufigkeitsdichte auch durch die relative Summenhäufigkeit X 1 X Fi = nj = fi · ∆xj n 1≤j≤i 1≤j≤i (i = 1, . . . , n) charakterisiert werden, wobei für 1 ≤ i ≤ n − 1 0 ≤ Fi ≤ Fi+1 ≤ Fn = 1 und Fi+1 − Fi = fi+1 · ∆xi+1 gilt. 4 4.1 Wahrscheinlichkeit Wahrscheinlichkeit (empirisch) Ein Experiment mit möglichen Ergebnissen E1 , E2 , . . . , En sei genügend oft wiederholbar. Es werde n-mal durchgeführt. Dabei treten die Ergebnisse Ei mit den relativen Häufigkeiten hi = nni auf. Wir erwarten zukünftig das Auftreten des Ergebnisses Ei mit Wahrscheinlichkeit pi = hi . Das soll bedeuten: Wir erwarten bei zukünftigen Versuchsreihen für jedes Ei die relative Häufigkeit hi ≈ pi . 4 WAHRSCHEINLICHKEIT 4.2 5 Wahrscheinlichkeit (axiomatisch) Ein endlicher Wahrscheinlichkeitsraum ist eine endliche Menge Ω und eine strikt positive Funktion (Wahrscheinlichkeit) P auf Ω mit X P (ω) = 1. ω∈Ω Eine Zufallsvariable auf Ω ist eine Funktion X : Ω → R (Rbezeichne die rellen Zahlen). Der Erwartungswert einer Zufallsvariablen X ist X EX = X(ω)P (ω). ω∈Ω 4.3 Ereignisse Ein Ereignis A ist eine Teilmenge A ⊂ Ω. Die Wahrscheinlichkeit eines Ereignisses A ist X P (A) = P (ω). ω∈A Für ein Ereignis A aus dem Wahrscheinlichkeitsraum Ω ist 1 falls ω ∈ A 1A (ω) = 0 falls ω ∈ /A die Indikatorfunktion von A. Es gilt P (A) = E1A . 4.4 Produkträume Aus endlichen Wahrscheinlichkeitsräumen (Ωi , Pi ) (i = 1, . . . , n) erhält man durch Bildung des kartesischen Produkts Ω = Ω1 × . . . × Ωn und der Produktwahrscheinlichkeit P = P1 × . . . × Pn mit P (ω1 , . . . , ωn ) = P1 (ω1 ) · · · · · Pn (ωn ) einen neuen endlichen Wahrscheinlichkeitsraum (Ω, P ), den Produktraum. Sind die Wahrscheinlichkeitsräume (Ωi , Pi ) untereinander gleich, stellt der Produktraum ein Modell für eine Folge von n unabhängige Durchführungen desselben Experiments dar, wobei ωi ∈ Ωi das Ergebnis der i-ten Durchführung des Experiments ist. 4 WAHRSCHEINLICHKEIT 4.5 6 Erwartungswert einer relativen Häufigkeit Wir nehmen nun an, dass (Ω, P ) ein Produktraum von n gleichen endlichen Wahrscheinlichkeitsräumen (Ω0 , P0 ) und das Ereignis A ⊂ Ω0 ist. Die Zufallsvariable 1 X nA (ω) = 1A (ωi ) n 1≤i≤n ist auf Ω erklärt und hat den Erwartungswert X 1 X 1A (ωi ) P (ω) EnA = n ω∈Ω 1≤i≤n X X 1 = P (ω) n 1≤i≤n = ω∈Ω,ωi ∈A 1 X P0 (A) n 1≤i≤n = P0 (A) 4.6 (1) Was ist Wahrscheinlichkeit? Die Beziehung (1) stimmt mit folgender Deutung des Begriffs “Wahrscheinlichkeit” überein: Die Wahrscheinlichkeit eines Ereignisses ist der Erwartungswert der relativen Häufigkeit seines Stattfindens.1 Es ist beruhigend, dass unsere abstrakten Konstruktionen “Wahrscheinlchkeit”, “Zufallsvariable” und “Erwartungswert” nicht im Widerspruch stehen zum Wahrscheinlichkeitsbegriff, wie ihn z.B. ein theoretischer Physiker braucht. Ist aber damit schon erklärt, was Wahrscheinlichkeit wirklich ist? Wir können diese schwierige (philosophische?) Frage hier nicht klären und trösten uns mit folgendem Zitat: In statistics it is a mark of immaturity to argue overmuch about the fundamentals of probability theory.2 4.7 4.7.1 Modellbildung Alles in Ordnung? Drei ideale in Deutschland geprägte (auf der Rückseite einen Adler aufweisende) 1-¤-Münzen werden geworfen. “Ideal” soll hier bedeuten, dass die Wahrscheinlichkeit für “Zahl” (Z) oder “Adler” (A) jeweils 12 ist. Wie groß ist die Wahrscheinlichkeit p, dass nur Adler oder nur Zahlen erscheinen? Was ist von folgenden Antworten zu halten? 1 C.F.v.Weizsäcker, 2 Kendall Aufbau der Physik. Hanser, 1985. and Stuart, The advanced theory of statistics. Vol.1, London, 1969. 4 WAHRSCHEINLICHKEIT 7 1. Es gibt zwei Möglichkeiten: Entweder erscheinen drei gleiche Bilder oder aber zwei gleiche und ein anderes. Also ist p = 12 . 2. Es gibt vier Möglichkeiten: Drei Adler, zwei Adler und eine Zahl, ein Adler und zwei Zahlen, drei Zahlen. Also ist p = 2 · 41 = 12 . 3. Zwei Münzen müssen das gleiche Bild zeigen. Die dritte muss entweder ebenfalls das gleiche Bild zeigen oder ein anderes. Es gibt nur diese zwei Möglichkeiten. Also ist p = 21 . 4.7.2 Modell Wir bilden Ω = {AAA, AAZ, AZA, AZZ, ZAA, ZAZ, ZZA, ZZZ} = {ω1 , . . . , ω8 }. Alle Ergebnisse sind gleichwahrscheinlich: P (ωi ) = 1 8 (i = 1, . . . , 8). Das Ereignis “nur Adler oder nur Zahl” ist E = {AAA, ZZZ} = {ω1 , ω8 } und es gilt 1 1 1 + = . 8 8 4 Dies soll zeigen: Ein Wahrscheinlichkeitsmodell bringt Klarheit. P (E) = P (ω1 ) + P (ω8 ) = 4.8 Die Ereignisalgebra F Ω sei ein endlicher Wahrscheinlichkeitsraum und P eine Wahrscheinlichkeit auf Ω. F bezeichne die Menge aller Ereignisse A ⊂ Ω (damit ist auch vereinbart, dass ∅ ∈ F ist). P ist auf F erklärt. Für alle A ∈ F gilt 0 = P (∅) ≤ P (A) ≤ P (Ω) = 1. und man hat für das Rechnen auf F die Regeln P (A ∪ B) = P (A) + P (B) − P (A ∩ B) P (A ∩ B) = P (A) + P (B) + P ((Ω − A) ∩ (Ω − B)) − 1 P (A \ B) = P (A) − P (A ∩ B). Ferner: Aus P (A) ≥ 1 − und P (B) ≥ 1 − folgt P (A ∩ B) ≥ 1 − 2. 4 WAHRSCHEINLICHKEIT 4.9 8 Gleichwahrscheinlichkeit und Kombinatorik Sind in einem endlichen Wahrscheinlichkeitsraum die Ergebnisse ω ∈ Ω gleichwahrscheinlich, führt die Berechnung bestimmter Wahrscheinlichkeiten oft auf kombinatorische Probleme. Beispiel 1 Wie groß ist die Wahrscheinlichkeit, dass in einer Ziffernfolge der Länge 6, die nur aus den Ziffern 0 und 1 besteht, genau zweimal eine 1 auf eine 0 folgt? Antwort: 21 64 . Beispiel 2 Wie groß ist die Wahrscheinlichkeit, dass eine zufällig gewählte Ziffernfolge der Länge 5, die aus den Ziffern 0 bis 9 besteht, lauter verschiedene Ziffern enthält? Antwort: 30240 . 100000 4.9.1 Permutationen und Kombinationen Eine Menge M habe n Elemente. Die Anzahl verschiedener möglicher Anordnungen (Permutationen) der Elemente von M ist n! = n · (n − 1) · · · 2 · 1 (“n Fakultät”). Es gilt die Konvention 0! = 1. Eine Teilmenge T ⊂ M mit r verschiedenen Elementen heißt rKombination. Zu M gibt es n! n = r r!(n − r)! n ist der Binomialkoeffizient “n über verschiedene r-Kombinationen. r r”. Die Beziehung n n−1 n−1 = + r r−1 r verdeutlicht. 4.9.2 Permutationen mit Nebenbedingungen Durch zusätzliche Nebenbedingungen werden kombinatorische Probleme oft noch erschwert. Beispiel 3 Auf wieviele Arten kann man die Elemente der Menge M = {m1 , . . . , mn } umordnen, ohne dass irgendein mi wieder an die i-te Stelle kommt? Antwort: Für die gesuchte Anzahl Dn gilt Dn = (n − 1)(Dn−2 + Dn−1 ). 4 WAHRSCHEINLICHKEIT 4.10 9 Verteilung, Verteilungsfunktion Der Erwartungswert einer Zufallsvariablen X : Ω → {a1 , . . . , ak } hängt nur von den Werten P (X = ai ) = P ({ω|X(ω) = ai }), i = 1, . . . , k (die in der Wahrscheinlichkeitstheorie übliche Schreibweise steht links) ab: X EX = X(ω)P (ω) ω∈Ω = X X ai P (ω) 1≤i≤k ω∈{X=ai } = X ai P (X = ai ). 1≤i≤k Die Gesamtheit der Werte P (X = ai ), i = 1, . . . , k heißt Verteilung der Zufallsvariablen X. Die monoton wachsende Treppenfunktion F (a) = P (X ≤ a), a ∈ R heißt Verteilungsfunktion. 4.11 Varianz, Kovarianz Maße für die Abweichung der Zufallsvariablen X von ihrem Erwartungswert sind die Varianz (Streuung) von X σ 2 (X) = E(X − EX)2 und die Standardabweichung von X p σ(X) = σ 2 (X). 2 Auch die Schreibweisen σX für σ 2 (X) und σX für σ(X) sind üblich. Die Kovarianz zweier Zufallsvariablen X, Y : Ω → R ist Cov(X, Y ) = E(X − EX)(Y − EY ). Sie kann als graduelles Maß für die Unabhängigkeit bzw. für den linearen Zusammenhang von X und Y aufgefasst werden. 4.12 Die Tschebyscheffsche Ungleichung Die Wahrscheinlichkeit für die Abweichung der Zufallsvariablen X von ihrem Erwartungswert EX um den Mindestwert a > 0 kann mit Hilfe der Varianz abgeschätzt werden: P (|X − EX| ≥ a) = P ((X − EX)2 ≥ a2 ) (X − EX)2 = P( ≥ 1) a2 2 (X − EX) ≤ E a2 2 σ (X) . = a2 4 WAHRSCHEINLICHKEIT 10 Die Beziehung σ 2 (X) a2 heißt Tschebyscheffsche Ungleichung. Sie ist nur im Falle a > σ(X) interessant. P (|X − EX| ≥ a) ≤ 4.13 Gemeinsame Verteilung, Unabhängigkeit Seien X1 , . . . , Xn Zufallsvariablen auf (Ω, P ). man nennt \ P (X1 = a1, . . . , Xn = an ) = P ( {Xi = ai }) 1≤i≤n deren gemeinsame Verteilung und F (a1 , . . . , an ) = P ( \ {Xi = ai }) 1≤i≤n deren gemeinsame Verteilungsfunktion (dabei durchläuft (a1 , . . . , an ) alle Werte in Rn ). Die Zufallsvariablen X1 , . . . , Xn heißen unabhängig, wenn Y P (X1 = a1, . . . , Xn = an ) = P (Xi = ai ) 1≤i≤n oder, was damit gleichwertig ist, F (a1 , . . . , an ) = Y P (Xi ≤ ai ) 1≤i≤n für alle (a1 , . . . , an ) ∈ Rn gilt. 4.14 Eine Eigenschaft unabhängiger Variabler Seien X1 , . . . , Xn unabhängige Zufallsvariablen mit Wertebereichen W1 , . . . , Wn . Der Erwartungswert ihres Produkts ist X X ... a1 · · · an P (X1 = a1, . . . , Xn = an ). a1 ∈W1 an ∈Wn Wegen der Unabhängigkeit der Zufallsvariablen lässt sich dieser Ausdruck umformen zu X X Y ... a1 · · · an P (Xi = ai ) a1 ∈W1 an ∈Wn 1≤i≤n und durch geeignetes Ausklammern zu Y X ai P (Xi = ai ). 1≤i≤n ai ∈Wi Damit ist gezeigt, dass E Y 1≤i≤n Xi = Y EXi 1≤i≤n gilt, d.h. dass der Erwartungswert des Produktes von unabhängigen Zufallsvariablen gleich dem Produkt ihrer Erwartungswerte ist. 4 WAHRSCHEINLICHKEIT 4.15 11 Eigenschaften der Varianz Für eine Zufallsvariable X und beliebiges a ∈ R gilt E(X − a)2 = EX 2 − 2aEX + a2 = EX 2 − (EX)2 + (EX − a)2 . Der Ausdruck wird minimal für a = EX. Also ist σ 2 (X) = min E(X − a)2 a∈R und es gilt für beliebiges c ∈ R σ 2 (X) = σ 2 (X + c) sowie σ 2 (X) = EX 2 − (EX)2 . Ferner gilt für unabhhängige Zufallsvariablen X1 , . . . , Xn und beliebige c1 , . . . , cn ∈ R X X σ2 ci Xi = c2i σ 2 (Xi ) 1≤i≤n 1≤i≤n (nachrechnen!). 4.16 Schwaches Gesetz der großen Zahlen X1 , . . . , Xn seien unabhängige Zufallsvariablen mit gleichem Erwartungswert m = EXi und gleicher Varianz σ 2 = σ 2 (Xi ) . Wir betrachten die Zufallsvariablen X Sn = Xi 1≤i≤n und Tn = 1 Sn . n Es gilt ETn = m und σ 2 (Tn ) = n1 σ 2 . Für beliebiges a > 0 gilt nach der Tschebyscheffschen Ungleichung P (|Tn − m| ≥ a) ≤ σ2 , na2 folglich P (|Tn − m| < a) ≥ 1 − σ2 . na2 Mit m → ∞ erhält man lim P (|Tn − m| < a) = 1 n→∞ P für alle a > 0, (2) wofür man kurz Tn → m schreibt und sagt: Tn konvergiert nach Wahrscheinlichkeit gegen m. Man nennt (2) das schwache Gesetz der großen Zahlen. 5 SPEZIELLE VERTEILUNGEN 12 Bezeichnet man mit Fn die Verteilungsfunktion von Tn , dann ist die Konvergenz nach Wahrscheinlichkeit P Tn → m gleichwertig mit lim Fn (m + a) = 1 n→∞ und lim Fn (m − a) = 0 n→∞ für alle a > 0, denn lim P (|Tn − m| < a) = 1 n→∞ für alle a > 0 ist gleichwertig mit lim P (T ≤ m + a) = 1 n→∞ 5 und lim P (T ≤ m − a) = 0 n→∞ für alle a > 0. Spezielle Verteilungen 5.1 Die Binomialverteilung Eine Zufallsvariable X mit Verteilung n k p (1 − p)n−k P (X = k) = k (0 ≤ k ≤ n) nennt man B(n, p)-verteilt oder binomialverteilt. B(n, p)-verteilte Zufallsvariablen haben Erwartungswert np und Varianz np(1 − p). Beispiel 4 In einer Urne befinden sich r rote und s schwarze Kugeln. Die Anzahl roter Kugeln, die man nach n Ziehungen mit Zurücklegen gezogen r hat, ist B(n, r+s )-verteilt. 5.2 5.2.1 Die Normalverteilung Als Grenzwert binomialverteilter Zufallsvariablen Seien X1 , X2 , . . .unabhängige, binomialverteilte Zufallsvariablen mit P (Xi = P 1) = P (Xi = 0) = 12 . Für die Zufallsvariable Sn = 1≤i≤n Xi gilt P (Sn = P k) = nk ( 12 )n . Sie hat den Erwartungswert ESn = E 1≤i≤n Xi = n2 und P die Varianz σ 2 (Sn ) = 1≤i≤n σ 2 (Xi ) = n4 . Wir zeigen: Z x 2 n x √ 1 lim P Sn − < n =√ e−t /2 dt . n→∞ 2 2 2π −x Wir betrachten zuerst den Fall einer geraden Anzahl von Summanden und setzen x√ P2n (x) = P |S2n − n| < 2n . 2 5 SPEZIELLE VERTEILUNGEN 13 Es ist P2n (x) 2n k 2n 1 2 2n n+j 2n 1 2 2n n X = |k−n|< x 2 √ 2n X = |j|< x 2 √ 2n X = |j|< x 2 √ 2n 2n 1 Dj,n 2 mit Dj,n = = n · (n − 1) · . . . · (n − j + 1) (n + j) · (n + j − 1) · . . . · (n + 1) 1 . j j ) · . . . · (1 + n−j+1 ) (1 + nj ) · (1 + n−1 Nach dem Mittelwertsatz ist ln(1+x)−ln 1 = ln0 (1+ x̃)·x mit |x̃| ≤ |x|, also 1 x̃ ln(x + 1) = 1+x̃ · x = (1 − 1+x̃ ) · x mit |x̃| ≤ |x|, d.h. ln(x + 1) = (1 + ε(x)) · x mit limx→0 ε(x) = 0. Somit ist ln Dj,n = − j−1 X ln(1 + k=0 = − j−1 X k=0 j ) n−k j j (1 + ε( )) n−k n−k = −(1 + εj,n ) j−1 X k=0 j n−k p mit geeigneten εj,n . Wegen der Einschränkung |j| < x n2 gilt j =0 lim sup sup ε n→∞ j 0≤k<j n−k und damit auch lim sup |εj,n | = 0 . n→∞ Mit j j 1 j = · n−k n 1− k n kann man ln Dj,n weiter vereinfachen zu ln Dj,n = −(1 + ε0j,n ) j−1 X j j2 = −(1 + ε0j,n ) , n n k=0 wobei wegen 0 ≤ k < j die ε0j,n wiederum gleichmäßig gegen 0 konvergieren. Damit ist 2 Dj,n = e−j /n (1 + ∆j,n ) 5 SPEZIELLE VERTEILUNGEN 14 p für |j| < x n2 , wobei auch die ∆j,n gleichmäßig gegen 0 konvergieren. Mithilfe der Stirlingschen Formel √ n! = e−n nn 2πn(1 + εn ) (mit limn→∞ εn = 0) kann man 2n n in der Form 1 22n · √ (1 + δn ) πn mit limn→∞ δn = 0 darstellen. Damit erhält man für P2n (x) die Darstellung 2 1 √ e−j /n √ n πn X P2n (x) = (1 + δn0 ) |j|<x 2 mit limn→∞ δn0 = 0. Durch die Variablentransformation p p tj = j 2/n , ∆t = tj+1 − tj = 2/n wird r n |j| < x 2 zu −x < tj < x und damit P2n (x) = (1 + δn0 ) 2 1 √ e−tj /2 ∆t . 2π −x<tj <x X Dies ist eine Riemannsche Summe, die beim Übergang zum Grenzwert Z x 2 1 lim P2n (x) = √ e−t /2 dt n→∞ 2π −x liefert. Die Behandlung der P2n+1 (x) wird durch geeignete Abschätzungen auf die Behandlung der P2n (x) zurückgeführt. 5.2.2 Gaußsche Fehlerfunktion und Normalverteilung Für die Gaußsche Fehlerfunktion 1 Φ(a) = √ 2π Z a 2 e−t /2 dt −∞ gilt Φ(−a) = 1 − Φ(a), Φ(−∞) = 0 und Φ(∞) = 1. Sie kann als Verteilungsfunktion P (x ≤ a) = Φ(a) einer (im erweiterten Sinn definierten) Zufallsvariablen X aufgefaßt werden mit Erwartungswert Z ∞ 2 1 EX = √ te−t /2 dt = 0 2π −∞ 5 SPEZIELLE VERTEILUNGEN und Varianz 1 σ 2 (X) = √ 2π 15 Z ∞ 2 t2 e−t /2 dt = 1 . −∞ X nennt man dann N (0, 1)-verteilt (standardnormalverteilt). Ist (mit Konstanten m,σ) die Zufallsvariable X−m standardnormalverteilt, so nennt σ man die Zufallsvariable X N (m, σ)-verteilt (normalverteilt mit Mittelwert m und Varianz σ 2 ). 5.2.3 Zentraler Grenzwertsatz Die Bedeutung der Normalverteilung für die Statistik wird klar an folgendem Pn Satz 1 (Zentraler Grenzwertsatz) Für die Summen Sn = i=1 Xi von unabhängigen, identisch verteilten Zufallsvariablen X1 , X2 , . . . mit EXi = 0 und σ 2 (Xi ) = σ 2 gilt Sn √ < a = Φ(a) lim P n→∞ σ n (a ∈ R). Diesem Satz ordnet sich als Spezialfall auch die vorhin gezeigte Konvergenz Z x 2 n x √ 1 lim P Sn − < e−t /2 dt n =√ n→∞ 2 2 2π −x unter, wo die Summen Sn aus identisch verteilten Zufallsvariablen Xi mit P (Xi = 0) = P (Xi = 1) = 21 gebildet waren. Denn aus Symmetriegründen gilt mit Z x 2 n x √ 1 lim P Sn − < n =√ e−t /2 dt n→∞ 2 2 2π −x auch n x√ 1 n =√ lim P Sn − < n→∞ 2 2 2π Z x 2 e−t /2 dt −∞ und damit ist auch Pn Z x 1 2 1 x=1 (Xi − 2 ) lim P <x = √ e−t /2 dt . 1√ n→∞ 2π −∞ 2 n Die letzte Formulierung stimmt mit der des Zentralen Grenzwertsatzes überein. Bemerkung 1 Die Verteilung der standardisierten Summen der Zufallsvariablen Xi ist asymptotisch N (0, 1)-verteilt unabhängig davon, wie die Xi verteilt sind. Bemerkung 2 Der Zentrale Grenzwertsatz gilt auch unter schwächeren Voraussetzungen: Statt eine identische Verteilung der Xi anzunehmen, genügt es, sicherzustellen, dass keine der Zufallsvariablen Xi dominiert und so die Verteilung der Sn zu stark prägt. 5 SPEZIELLE VERTEILUNGEN 16 Bemerkung 3 Das erklärt, warum viele empirische Häufigkeitsverteilungen annähernd normal sind: Wird ein Merkmal durch additives Zusammenwirken verschiedener unabhängiger gleichgewichtiger Einflussgrößen bestimmt, ist die Verteilung des Merkmals annähernd normal (Beispiel: Messfehler). 5.2.4 Approximation von B(n, p) durch N (0, 1) Für große n ist die direkte Berechnung der Binomialverteilung mühsam. Man greift deshalb auf die Näherung durch die Normalverteilung zurück. Faustregel: Für eine B(n, p)-verteilte Zufallsvariable X mit n> 9 p(1 − p) ist P (X ≤ k) ≈ Φ k + 1 − np p 2 np(1 − p) ! eine brauchbare Näherung. 5.3 5.3.1 Die Poissonverteilung Inanspruchnahme einer Bedienstelle Ein Zeitraum [0, T [ wird in n gleich große Intervalle [0, n1 T [, [ n1 T, n2 T [, . . ., [ n−1 n T, T [ unterteilt. Die Unterteilung sei so fein, dass pro Zeitintervall entweder (mit Wahrscheinlichkeit 1 − p) keine oder (mit Wahrscheinlichkeit p) eine Anforderung ankommt. Sei Xi = 0, falls im i-ten Intervall keine Anforderung ankommt, an, . . . , Xn sind unabhängig dernfalls sei Xi = 1. Die Zufallsvariablen X1P n und B(1, p)-verteilt. Die Zufallsvariable Sn = i=1 Xi ist B(n, p)-verteilt mit ESn = np. Wir lassen n → ∞ und nehmen dabei an, dass sich die Größe ESn = np = λ nicht ändert. Welche Grenzverteilung limn→∞ P (Sn = k) ergibt sich? Die Poissonverteilung P(λ) Pn λ Die Summe Sn = i=1 Xi der unabhängigen, B(1, n )-verteilten ZVn X1 , . . . , Xn ist B(n, nλ )-verteilt mit 5.3.2 P (sn = k) = n−k k n λ λ . 1− n n k Wegen lim P (Sn = 0) = lim n→∞ n→∞ λ 1− n n = e−λ 5 SPEZIELLE VERTEILUNGEN und lim n→∞ 17 P (Sn = k) λ = P (Sn = k − 1) k erhält man daraus durch Rekursion lim P (Sn = k) = n→∞ λk λk −λ lim P (Sn = 0) = e . k! n→∞ k! Dies ist die Poissonverteilung P(λ). Ihre Verwendung zur Approximation der Binomialverteilung nennt man den Grenzwertsatz seltener Ereignisse . 5.3.3 Momente der Poissonverteilung P(λ) kann als Verteilungsfunktion einer (im erweiterten Sinn definierten) Zufallsvariablen X mit Werten in N0 aufgefaßt werden mit Erwartungswert EX ∞ X λk k e−λ k! = k=0 ∞ X = λ k=1 λk−1 −λ e (k − 1)! = λ und Varianz σ 2 (X) = EX 2 − (EX)2 ∞ X λk = k 2 e−λ − λ2 k! k=0 ∞ X = λ = λ k=1 ∞ X k=0 k λk−1 −λ e − λ2 (k − 1)! (k + 1) λk −λ e − λ2 k! = λ. Eine solche Zufallsvariable nennen wir P(λ)-verteilt. 5.3.4 Summen poissonverteilter Zufallsvariabler Ist die Zufallsvariable X P(λ1 )-verteilt und die Zufallsvariable Y P(λ2 )verteilt und sind X und Y unabhängig, so ist ihre Summe Z = X + Y 5 SPEZIELLE VERTEILUNGEN 18 P(λ1 + λ2 )-verteilt, denn P (Z = k) = k X P (X = j, Y = k − j) j=0 = k X P (X = j)P (Y = k − j) j=0 k X λj1 λk−j 2 = e−(λ1 +λ2 ) j!(k − j)! j=0 5.3.5 = k e−(λ1 +λ2 ) X k j k−j λ λ k! j 1 2 j=0 = (λ1 + λ2 )k −(λ1 +λ2 ) e . k! Approximation der Poissonverteilung Für unabhängige P(λ)-verteilte Zufallsvariablen X1 , X2 , . . . gilt der Zentrale Grenzwertsatz. Ihre standardisierten Summen Sn − nλ √ nλ Pn (mit Sn = i=1 Xi ) sind deshalb asymptotisch N (0, 1)-verteilt. Da die Sn P(nλ)-verteilte Zufallsvariablen sind, kann man dieses Resultat auch für einzelne poissonverteilte Zufallsvariablen interpretieren: Ist die Zufallsvariable X P(λ)-verteilt, so geht für λ → ∞ die Ver√ in die Normalverteilung N (0, 1) über. teilung der Zufallsvariablen X−λ λ Faustregel: Eine brauchbare Näherung für poissonverteilte Zufallsvariablen mit λ > 9 ist k + 21 − λ √ P (X ≤ k) ≈ Φ . λ 5.4 Die Hypergeometrische Verteilung In einer Grundgesamtheit mit N Elementen haben M Elemente eine bestimmte Eigenschaft E und N − M Elemente die Eigenschaft E nicht. Die Zahl X der Elemente mit Eigenschaft E, die man bei zufälliger Ziehung (auf einmal oder nacheinander) von n Elementen ohne Zurücklegen aus dieser Grundgesamtheit erhält, nennt man H(N, M, n)-verteilt oder hypergeometrisch verteilt . Es gilt P (X = k) = M k EX = n · N −M n−k N n M , N , 6 STICHPROBEN UND DEREN VERWENDUNG M σ (X) = n · N 2 5.5 M 1− N 19 N −n . N −1 Zufallsvariablen mit unendlich vielen Werten Wir haben zu Beginn Zufallsvariablen als zufällige Größen definiert, die nur endlich viele verschiedene Werte annehmen können. Wir haben dann gesehen, dass sich als Grenzwerte solcher Zufallsvariablen zufällige Größen ergeben können, die entweder unendlich viele diskrete Werte (z.B. poissonverteilte Größen) oder ein Kontinuum von Werten haben (z.B. normalverteilte Größen). Wir dehnen unseren Zufallsvariablen-Begriff auch auf solche Größen aus, denn es handelt sich bei diesen um äußerst nützliche Idealisierungen zufälliger Größen der realen Welt. Mit entsprechender mathematischer Umsicht dürfen und werden wir mit den Zufallsvariablen im erweiterten Sinn nach den gleichen Regeln rechnen, die am Anfang für die “einfachen” Zufallsvariablen aufgestellt wurden (z.B. σ 2 (X) = EX 2 − (EX)2 ). 6 Stichproben und deren Verwendung Die Vorlesung verzweigt nun in zwei Richtungen, die unabhängig voneinander studiert werden können. Jeder Zweig führt in ein Spezialgebiet der inferentiellen Statistik ein, in die Schätztheorie einerseits, in die Testtheorie andrerseits. 6.1 Stichproben Eine Stichprobe ist eine endliche und echte Teilmenge einer statistischen Grundgesamtheit, die Aufschluss über die Grundgesamtheit liefern soll. Die Anzahl n der Stichprobenelemente heißt Stichprobenumfang. Stichproben werden zur Beurteilung der Grundgesamtheit herangezogen, wenn eine Vollerhebung zu teuer, zu zeitaufwendig, nicht sinnvoll, zu keiner Zeit durchführbar, oder wegen der unendlichen Größe der Grundgesamtheit nicht möglich ist. Die wesentliche Eigenschaft einer Stichprobe ist ihre Zufälligkeit. 6.2 Schätzen Mit Hilfe von Stichproben ist man in der Lage, den Typ oder Parameter (z.B. Mittelwert, Streuung, Anteilswert) von Merkmalsverteilungen zu schätzen. Die Schätzung kann in der Angabe einer bestimmten Zahl für den unbekannten Parameter bestehen (Punktschätzung) oder in der Angabe eines Intervalls, das den unbekannten Parameter überdeckt (Intervallschätzung). 7 ELEMENTE DER SCHÄTZTHEORIE 20 In beiden Fällen sind die Schätzungen mit Unsicherheit behaftet, die man mit Hilfe der Wahrscheinlichkeitsrechnung abschätzt und möglichst klein hält. 6.3 Testen Bei statistischen Testverfahren werden Hypothesen über den Typ oder über Parameter der Merkmalsverteilung einer Grundgesamtheit durch Stichproben überprüft. Ein solches Testverfahren kann dazu führen, daß die vor dem Test aufgestellte Hypothese verworfen (andernfalls beibehalten) wird. Eine derartige Entscheidung ist mit Unsicherheit behaftet, da sie aufgrund eines Zufallsexperiments, nämlich der Stichprobe, gefällt wird. Diese Unsicherheit wird mit Hilfe der Wahrscheinlichkeitsrechnung abgeschätzt und möglichst klein gehalten. 7 Elemente der Schätztheorie 7.1 7.1.1 Ein Beispiel Schätzung eines Fehleranteils Der p eines Serienproduktes soll geschätzt werden. Dazu werden n zufällige Stichproben gezogen, d.h. es werden B(1, p)-verteilte Zufallsvariablen X1 , . . . , Xn “realisiert”: xi = 1, wenn das i-te gezogene Stück fehlerhaft ist, andernfalls xi = 0. Man beachte, dass wir Zufallsvariablen groß schreiben, deren Realisierungen dagegen klein. Aus den beobachteten Werten soll nun das unbekannte p möglichst gut durch einen Schätzwert p̂ geschätzt werden. Wir schätzen p̂ = U (X1 , . . . , Xn ) mit der Schätzfunktion U (x1 , . . . , xn ) = 1 X xi , n 1≤i≤n d.h.: Ist bei den n Stichproben N -mal ein fehlerhaftes Stück gezogen worden, schätzen wir N p̂ = . n 7.1.2 Eigenschaften der Schätzfunktion p̂ 1. p̂ ist erwartungstreu (auch unverzerrt, engl. unbiased), d.h. Ep̂ = p. 2. p̂ ist konsistent (sehr wünschenswert!), d.h. P p̂ −→ p für n −→ ∞. 7 ELEMENTE DER SCHÄTZTHEORIE 21 Dies folgt unmittelbar aus dem schwachen Gesetz der großen Zahlen. Es bedeudet, dass eine Abweichung der Schätzfunktion vom wahren Wert p mit wachsendem Stichprobenumfang n immer unwahrscheinlicher wird. 3. Unter allen erwartungstreuen Schätzfunktionen ist p̂ diejenige mit der kleinsten Varianz (ohne Beweis). Es ist σ 2 (p̂) = 7.1.3 1 1 p(1 − p) ≤ . n 4n Konfidenzintervalle für p Für den wahren Parameter p und jede Realisierung u = U (x1 , . . . , xn ) von p̂ ist (p, u) ∈ Q = [0, 1] × [0, 1]. Wir geben B ⊂ Q an, sodass (p, p̂) ∈ B mit statistischer Sicherheit 1 − 2β gilt (β vorgegeben, z.B. β = 0.025). Zu p ∈ [0, 1] sei Ip das Intervall mit Mittelpunkt p, für das Pp (p̂ ∈ Ip ) = 1 − 2β (möglichst genau!) gilt. Der Index p bei P bedeutet, dass p der Parameterwert zur Berechnung der Wahrscheinlichkeit ist. Für [ B =Q∩ {p} × Ip p∈[0,1] gilt dann P ((p, p̂) ∈ B)) = 1 − 2β. (3) Durch die Funktionen f1 und f2 sei der linke bzw. rechte Rand der Menge B parametrisiert. Dann kann die Beziehung (3) auch geschrieben werden als P (f1 (p̂)) ≤ p ≤ f2 (p̂)) = 1 − 2β. Interpretation: Mit statistischer Sicherheit (Konfidenzwahrscheinlichkeit) 1 − 2β wird für eine Realisierung u = U (x1 , . . . , xn ) von p̂ der wahre Parameter p zwischen f1 (u) und f2 (u) eingeschlossen. Das Intervall [f1 (u), f2 (u)] heißt Konfidenzintervall (auch Mutungsintervall), f1 (u) und f2 (u) heißen Vertrauensgrenzen, die Zahl 2β Fehlerwahrscheinlichkeit. 7.1.4 Approximative Konfidenzintervalle Wir betrachten den Fall, dass n und p eine Approximation durch die Normalverteilung erlauben. Mit Φ(−h) = β gilt dann ! np̂ + 12 − np ≤h ≈ Φ(h) − Φ(−h) P −h ≤ p np(1 − p) = 1 − 2β. 7 ELEMENTE DER SCHÄTZTHEORIE 22 Daraus erhält man 1 h2 p(1 − p) 2 P (p̂ + − p) ≤ ≈ 1 − 2β. 2n n Die Gleichung der Randkurve von B lautet daher näherungsweise (u + woraus man 1 h2 p(1 − p) − p)2 = , 2n n 1 h p u(1 − u) + O( ) f1,2 (u) = u ± √ n n herleiten kann. 7.2 Konfidenzintervalle Als Beispiel für die Vorgehensweise haben wir Konfidenzintervalle für den Anteil an einer Grundgesamtheit konstruiert. Wir werden nun angeben, wie man für andere Größen (z.B. für den Mittelwert einer N (µ, σ)verteilten Grundgesamtheit) Konfidenzintervalle bestimmt. Generell gilt (wie im Speziallfall 7.1.3): • Erhöhung der Konfidenzwahrscheinlichkeit vergrößert die Konfidenzintervalle: Sichere Aussagen sind unscharf und scharfe Aussagen sind unsicher. • Erhöhung des Stichprobenumfangs verkleinert die Konfidenzintervalle. 7.2.1 K.-I. für p (Normalverteilungsapproximation) Seien x1 , . . . , xn die Stichprobenergebnisse einer B(1, p)-verteilten Grundgesamtheit. Für die Schätzgröße p̂ = 1 X xi n 1≤i≤n gelte min{np̂, n(1 − p̂)} > 5 (somit ist eine Approximation durch die Normalverteilung vertretbar). Mit Konfidenzwahrscheinlichkeit 1−2β überdeckt dann das Konfidenzintervall " # r r p̂(1 − p̂) 1 p̂(1 − p̂) 1 −z , p̂ + +z p̂ − 2n n 2n n den wahren Parameter p (dabei ist z das rechte β-Quantil der N (0, 1)Verteilung). Beispiel 5 Bei einer Blitzumfrage waren 45 von 225 befragten wahlberechtigten Personen der Überzeugung, daß die gegenwärtige Regierung 7 ELEMENTE DER SCHÄTZTHEORIE 23 vor Ablauf der Legislaturperiode abgelöst wird. Zwischen welchen Grenzen wird der Anteil p der Wahlberechtigten, die diese Überzeugung haben, mit 90% Konfidenzwahrscheinlichkeit liegen? p̂ = 45 = 0.2 . 225 Wegen np̂ = 45 > 5 und n(1 − p̂) = 180 > 5 kann man die Normalverteilung zur Approximation heranziehen und erhält als Grenzen des Konfidenzintervalls ! r 1 0.16 0.2 ∓ + 1.64 450 225 und damit das Konfidenzintervall [0.154 , 0.246] . Also liegt mit statistischer Sicherheit von 90% der Anteil zwischen 15.4% und 24.6%. 7.2.2 K.-I. für p (exakt) Exakte Vertrauensgrenzen,Pauch falls sich np̂ ≤ 5 oder n(1 − p̂) ≤ 5 n für den Schätzwert p̂ = n1 i=1 xi ergibt, erhält man mit Hilfe der F Verteilung. Mit Konfidenzwahrscheinlichkeit 1 − 2β ist np̂ (np̂ + 1)F2 , np̂ + (n − np̂ + 1)F1 n − np̂ + (np̂ + 1)F2 ein Konfidenzintervall, das p enthält. Dabei sind F1 und F2 rechte β-Quantile der F -Verteilung mit Freiheitsgraden ν1 und ν2 : F1 = Fν1 ;ν2 ;β mit ν1 = 2(n − np̂ + 1) und F2 = Fν1 ;ν2 ;β mit ν1 = 2(np̂ + 1) und ν2 = 2np̂, ν2 = 2(n − np̂). Beispiel 6 Bei einer Blitzumfrage waren 45 von 225 befragten wahlberechtigten Personen der Überzeugung, daß die gegenwärtige Regierung vor Ablauf der Legislaturperiode abgelöst wird. Zwischen welchen Grenzen wird der Anteil p der Wahlberechtigten, die diese Überzeugung haben, mit 90% Konfidenzwahrscheinlichkeit liegen? Man berechne die Vertrauensgrenzen exakt. Mit ν1 = 2 · (225 − 45 + 1) = 362 und ν2 = 2 · 45 ist F1 = F362 ; 90 ; 0.05 = 1.3. Mit ν1 = 2 · (45 + 1) = 92 und ν2 = 2 · (225 − 45) = 360 46·1.22 45 = 0.161 und 180+46·1.22 = ist F2 = F92 ; 360 ; 0.05 = 1.22. Die Werte 45+181·1.3 0.237 sind die exakten Grenzen des Konfidenzintervalls. Also liegt mit statistischer Sicherheit von 90% der Anteil zwischen 16.1% und 23.7%. 7.2.3 K.-I. für µ einer N (µ, σ)-Verteilung (σ bekannt) Mit Konfidenzwahrscheinlichkeit 1 − 2β ist » – σ σ µ̂ − z √ , µ̂ + z √ n n 7 ELEMENTE DER SCHÄTZTHEORIE 24 P mit der Schätzfunktion µ̂ = n1 n i=1 xi ein Konfidenzintervall zur Stichprobe x1 , . . . , xn einer N (µ, σ)-verteilten Grundgesamtheit, das µ überdeckt. Dabei ist z das rechte β-Quantil der N (0, 1)-Verteilung. Beispiel 7 Aus einer N (µ, 12)-verteilten Grundgesamtheit wird eine Stichprobe mit Umfang n = 36 gezogen, die für µ̂ den Wert 26 liefert. Für 1 − 2β = 0.95 erhält man das Konfidenzintervall » – 12 12 26 − 1.96 √ , 26 + 1.96 √ . 36 36 7.2.4 K.-I. für µ einer N (µ, σ)-Verteilung (σ unbekannt) Mit Konfidenzwahrscheinlichkeit 1 − 2β ist σ̂ σ̂ µ̂ − t √ , µ̂ + t √ n n mit den Schätzfunktionen 1 X xi n µ̂ = 1≤i≤n und sP σ̂ = 1≤i≤n (xi − µ̂)2 n−1 ein Konfidenzintervall zur Stichprobe x1 , . . . , xn einer N (µ, σ)-verteilten Grundgesamtheit, das µ überdeckt. Dabei ist t das rechte β-Quantil der t-Verteilung (Student-Verteilung) mit n − 1 Freiheitsgraden. Beispiel 8 Eine aus einer normalverteiltenPGrundgesamtheit gezogene Stichprobe vom Umfang 17 ergibt µ̂ = 5 und 1≤i≤17 (xi − µ̂)2 = 25. Welche Vertrauensgrenzen ergeben sich für den Mittelwert µ bei einer geforderten Konfidenzwahrscheinlichkeit von 99%? Der benötigte Wert der t-Verteilung ist in der Tabelle der zweiseitigen 1%-Schranken (oder einseitigen 0.5%-Schranken) der t-Verteilung mit 16 Freiheitsgraden nachzuschlagen. Man findet den Wert 2.921. Damit ergeben sich die Grenzen r 25 5 ∓ 2.921 · , 16 · 17 also 4.11 und 5.89. 7.2.5 K.-I. für den Median µ̃ (Stichprobenumfang n ≥ 9) Bei nicht normalverteilten Grundgesamtheiten gibt man meist einen Vetrauensbereich für den Median anstatt für den Mittelwert an (a heißt Median, wenn P (x ≤ a) ≥ 12 und P (x ≥ a) ≥ 12 gilt). 8 ELEMENTE DER TESTTHEORIE 25 Ordnet man die Werte x1 , . . . , xn einer Stichprobe aufsteigend an, so erhält man eine neue Folge x(1) , . . . , x(n) . Mit diesen Werten ist (falls n ≥ 9) x(h+1) , x(n−h) ein Konfidenzintervall, das mit Konfidenzwahrscheinlichkeit 1 − 2β den Median µ̃ überdeckt. Dabei ist √ n−1−z n h=b c 2 (mit der floor-Funktion bxc = max {m ∈ Z|m ≤ x}) und z das rechte βQuantil der N (0, 1)-Verteilung. Beispiel 9 Ausgehend von den Werten einer Stichprobe vom Umfang n = 50 soll ein Konfidenzintervall angegeben werden, das mit statistischer Sicherheit von 95% den Median der Grundgesamtheit überdeckt. Als 2.5%-Quantil der Normalverteilung erhält man den Wert 1.96. Damit ergibt sich √ 50 − 1 − 1.96 50 c = b17.570c = 17 . h=b 2 Die Vertrauensgrenzen sind auf der Grundlage der geordneten Werte x(1) , . . . , x(50) der Stichprobe zu bilden. Man erhält als linke Grenze x(17+1) = x(18) und als rechte Grenze x(50−17) = x(33) . 8 Elemente der Testtheorie 8.1 8.1.1 Ein Beispiel Testen der Hypothese “die Münze ist fair” Von einer Münze mit den Seiten A und Z wird angenommen, dass sie “fair” ist in dem Sinne, dass nach zufälligem Werfen die A-Seite mit Wahrscheinlichkeit 0.5 oben liegt. Wir nehmen uns folgenden Test der Hypothese H0 “die Münze ist fair” vor: Wir werfen die Münze fünfmal. Wenn dabei das Ereignis AAAAA oder ZZZZZ eintritt, verwerfen wir H0 , ansonsten nehmen wir H0 an. Kurz: Über die B(1, p)-verteilten Zufallsvariablen X1 , . . . , X5 wird die Hypothese H0 : p = 0.5 aufgestellt. Zur Testvariablen U (X1 , . . . , X5 ) = 5 X Xi i=1 geben wir uns die Entscheidungsvorschrift: Verwirf H0 , wenn die Realisierung von U den Wert 0 oder 5 ergibt. 8 ELEMENTE DER TESTTHEORIE 1.00 r r 0.75 r r r 0.50 0.25 0.00 0.00 r r r r r r r r rr rr rr rr 0.25 rrr rrrrrr 26 rrrrrrrrr rrr r r rr 0.50 rr r rr r r r r 0.75 r r r r r r r r 1.00 p Abbildung 1: Gütefunktion des Tests “die Münze ist fair” 8.1.2 α-Fehler und β-Fehler Mögliche Entscheidungsverläufe dieses Tests: 1. (Berechtigte) Ablehnung von H0 , wenn H0 nicht zutrifft. 2. (Unberechtigte) Ablehnung von H0 , wenn H0 zutrifft (α-Fehler oder 5 Fehler 1. Art); Wahrscheinlichkeit hierfür: 2 · 12 = 0.0625. 3. (Berechtigte) Annahme von H0 , wenn H0 zutrifft. 4. (Unberechtigte) Annahme von H0 , wenn H0 nicht zutrifft (β-Fehler oder Fehler 2. Art); Wahrscheinlichkeit hierfür: 1 − p5 − (1 − p)5 mit dem (wahren) Parameter p 6= 21 . 8.1.3 Gütefunktion des Tests Die Gütefunktion G(p) = p5 + (1 − p)5 (Abbildung 1) des Tests zeigt die Ablehnwahrscheinlichkeit von H0 als Funktion von p. An ihr kann man die Wahrscheinlichkeit für den αFehler (G(p), p = 12 ) und für den β-Fehler (1 − G(p), p 6= 21 ) ablesen. Man erkennt: die Ablehnwahrscheinlichkeit von H0 wird erst groß, wenn p stark von 12 abweicht. 8.1.4 r Kritische Bereich und Annahmebereich Unser Test unterscheidet zwei Teilmengen des Wertebereichs der Testfunktion U : 8 ELEMENTE DER TESTTHEORIE 27 rb br r r r s s s s 1.00 sssss b r r ss ss b r 0.75 0.50 0.25 0.00 0.00 ss ssss r r r br ss ss r r b b ss r r b s K1 r r b b s s b r r ss K2 ss r r b s s b b r r K3 s s r r s s b b r r s s b b s s r r s s b b r r s s r r b b ss s s r r b b ss s r r b b ss ss r r s s ss s s s b b r r b b r r b b rr rr b b r r bb b rr r b bb rrrr rrrrr bb rr b bbb b bbbbb bb bbbbbbbbbb b r s 0.25 0.50 0.75 1.00 p Abbildung 2: Gütefunktion für verschiedene kritische Bereiche • Führt die Realisierung von U zu den Werten 0 oder 5, so verwerfen wir H0 : Die Menge {0, 5} heißt kritischer Bereich des Tests. • Führt die Realisierung von U zu einem Wert der Menge {1, 2, 3, 4}, so behalten wir H0 (bis auf weiteres) bei. Die Menge {1, 2, 3, 4} heißt Annahmebereich des Tests. 8.1.5 Vergrößerung des kritischen Bereichs Durch Vergrößerung des kritischen Bereichs wird der β-Fehler kleiner, der α-Fehler dagegen größer. Abbildung 2 zeigt die Gütefunktionen des Münzwurftests für Stichprobenumfang n = 10 und die kritischen Bereiche K1 = {0, 1, 9, 10}, K2 = {0, 1, 2, 8, 9, 10}, K3 = {0, 1, 2, 3, 7, 8, 9, 10}. 8.1.6 Erhöhung des Stichprobenumfangs Durch Erhöhung des Stichprobenumfangs wird der α-Fehler kleiner, der β-Fehler dagegen größer. Abbildung 3 zeigt die Gütefunktionen Gn des Münzwurftests zum kritischem Bereich K = {0, 1, 2, 3, n − 3, n − 2, n − 1, n} und Stichprobenumfang n = 10, 13, 16. 8.1.7 Kontrolle des α-Fehlers α-Fehler wiegen schwerer als β-Fehler. Deshalb gestaltet man Tests so, dass die Wahrscheinlichkeit für einen α-Fehler unterhalb eines vorgebenen Signifikanzniveaus α bleibt (übliche Werte: α = 0.05, 0.01, 0.001). Abbildung 4 zeigt die Gütefunktionen Gn der Tests zum Niveau α = 0.05 8 ELEMENTE DER TESTTHEORIE 28 b rb rb b b rb rsb rsb rsss s r bb b b rb r rs s b s r b s G10 b bb rrs s r bb b r s r b s G13 r b r b s rr bb G16 s b r s s r s b b b rr s s r bb b b b s r r s b b r s s r bb b b r s rr bb bb r ss bb b s r r s bbbbbbb s r r s r r s r s s rr s r r ss ss r r r r ss r r r r r r r r r ss s s s ss s ss sss s s s s b rb rb rsb rsb rb rb b b 1.00 rsss s r b 0.75 0.50 0.25 0.00 0.00 0.25 0.50 0.75 1.00 p Abbildung 3: Gütefunktion für verschiedene Stichprobenumfänge br br br r s s 1.00 sssss r s 0.50 0.05 0.00 s s sssss r r br br ss r r b b b r ss s b r s G9 b s r b b rr s s rr b r G 12 b r s b s G17 s s rr b b r s b r s b s b r s s rr b b s s r b b b r s s r r b b s s r r b b s r b b r s s r b b r s b r s s r b b r s s rrbb bbr s s rbb b br r s s sr br br b b br r s s s b br br sr s s s s r br b b br br sbr ss br br sbr sbr br br b 0.25 0.50 0.75 p Abbildung 4: Gütefunktionen zum Signifikanzniveau α = 0.05 1.00 8 ELEMENTE DER TESTTHEORIE 29 mit Stichprobenumfang n = 9, 12, 17 und kritischen Bereichen K9 = {0, 1, 9, 10}, K12 = {0, 1, 2, 10, 11, 12} bzw. K17 = {0, 1, 2, 3, 4, 13, 14, 15, 16, 17}. 8.1.8 Trennschärfe Eine wünschenswerte Eigenschaft eines Tests ist die Trennschärfe. Darunter versteht man die Eigenschaft, dass ein Test (neben der Einhaltung der α-Schranke für den Fehler 1. Art) möglichst kleine Werte für die Wahrscheinlichkeit des Fehlers 2. Art aufweist. Damit “trennt” der Test die Hypothese H0 möglichst “scharf” von den Alternativen zu H0 . Im Fall des Münzwurfs heißt dies, dass die Gütefunktion des Tests für p 6= 12 möglichst große Werte annehmen soll. Man kann zeigen, dass man “beliebig trennscharfe” Tests erhält, wenn der Stichprobenumfang entsprechend erhöht werden kann. 8.1.9 Einseitige Alternative H1 Der soeben betrachtete Münzwurftest war symmetrisch in dem Sinn, dass als Alternative zur Nullhypothese H0 : p = 21 (stillschweigend) die Hypothese H1 : p 6= 21 betrachtet wurde. Es kann jedoch in manchen Situationen sinnvoll sein, die Alternative H1 einseitig zu formulieren. Beispiel 10 S1 fordert S2 zu einer Wette auf. S1 setzt auf A einen gewissen Betrag, S2 soll auf Z einen ebenso großen Betrag setzen. Die Münze gehört S1 . S2 hat Zweifel, ob die Münze fair ist und vermutet, dass A öfter fällt als Z. S2 erhält Gelegenheit für einen Test. S2 nimmt sich vor, die Münze fünfmal zu werfen und sie zu beanstanden, wenn AAAAA eintritt. Formale Beschreibung des einseitigen Tests • H0 : p ≤ 12 , H1 : p > 12 , • Testvariable U (X1 , . . . , X5 ) = P 1≤i≤5 Xi , • kritischer Bereich K = {5}. • Signifikanzniveau α = 0.05 • Gütefunktion: Abbildung 5 Steigerung der Trennschärfe • H0 : p ≤ 21 , H1 : p > 12 , • Testvariable U (X1 , . . . , X16 ) = P 1≤i≤16 Xi , • kritischer Bereich K = {12, 13, 14, 15, 16}. • Signifikanzniveau α = 0.05 • Gütefunktion: Abbildung 6 8 ELEMENTE DER TESTTHEORIE 30 1.00 0.50 0.05 s s ss sssssssssssssssssssss ssss ss ss ss s 0.00 0.25 ss s s s s ss s 0.50 ss s s ss s s s s s s s 0.75 s s s s s s 1.00 p Abbildung 5: Gütefunktion für den einseitigen Test (n = 5) 1.00 0.50 0.05 sssssssssssssssssssssssss ss ss s s 0.00 0.25 ss s 0.50 s ss ss s s s s s s s s s s s s s s ss s ss 0.75 p Abbildung 6: Gütefunktion für den einseitigen Test (n = 16) ss ssss 1.00 8 ELEMENTE DER TESTTHEORIE 31 Beispiel 11 (Einseitiger Zeichentest) Zwei Lehrmethoden, A und B, sollen verglichen werden (angeblich ist B besser als A). Von 16 Zwillingspaaren soll dazu jeweils eine Person mit A, die andere mit B geschult und dann der Lehrerfolg anhand eines einheitlichen Tests festgestellt werden. Ist B besser als A, dann ist der Anteil p der Zwillingspaare, bei denen mit B ein besseres Resultat als mit A erzielt worden ist, größer als 21 . Man testet H0 : p ≤ 21 einseitig gegen H1 : p > 12 zum Niveau α = 0.05. Die Durchführung ergibt: 13 mal hat B zu einem besseren Resultat geführt als A. Man kann damit H0 auf dem 5%-Niveau ablehnen und sagen, dass B besser als A ist. 8.2 8.2.1 Grundsätzliches zum statistischen Test Hat ein statistischer Test Beweiskraft? Eine möglicherweise wahre Hypothese über eine statistische Grundgesamtheit wird als H1 -Hypothese, die Gegenhypothese als H0 -Hypothese formuliert. Mit statistischen Tests kann aber eine Hypothese H1 , auch wenn sie zutrifft, nicht bewiesen und eine Hypothese H0 , auch wenn sie falsch ist, nicht einwandfrei widerlegt werden. Ähnlich wie indirekte mathematische Beweise zielen statistische Tests darauf ab, die möglicherweise falsche Hypothese H0 zugunsten der Hypothese H1 zu verwerfen, und zwar auf der Grundlage von Testresultaten, die der Hypothese H0 widersprechen. Anstatt auf absolute Beweiskraft kann man sich aber nur auf eine kontrollierbar kleine (aber positive) Irrtumswahrscheinlichkeit (Signifikanzniveau) berufen. 8.2.2 Asymmetrie zwischen α- und β-Fehler Statistische Test können versagen, sowohl wenn H0 wirklich falsch ist und H0 dennoch nicht abgelehnt wird (β-Fehler), als auch wenn H0 zutrifft und trotzdem abgelehnt wird (α-Fehler). Die Tatsache, dass grundsätzlich bei keinem Test die Wahrscheinlichkeit für beide Fehler gleichzeitig minimimal sein kann, ist der Grund für die ungleichen Rollen des durch ein vorgegebenes Signifikanzniveau kontrollierten α-Fehlers und des β-Fehlers, der nur in Teilbereichen durch Steigerung der Trennschärfe noch verringert werden kann. 8.2.3 Struktur eines statistischen Tests Über die (teilweise) unbekannte Verteilung einer statistischen Grundgesamtheit sind alternative Hypothesen H0 (möglicherweise falsch) und H1 (möglicherweise wahr) formuliert. Stichprobenvariablen X1 , . . . , Xn zur Grundgesamtheit bilden eine Testgröße Tn (X1 , . . . , Xn ), deren theoretische Verteilungseigenschaften in Abhängigkeit von den Hypothesen bekannt sind. 8 ELEMENTE DER TESTTHEORIE 32 Stichprobenumfang und kritischer Bereich für die Ablehnung von H0 sind so festgelegt, dass eine vorgegebene Irrtumswahrscheinlichkeit für eine fälschliche Ablehnung von H0 nicht überschritten wird. Liegt der Wert von Tn bei Realisierung der Stichprobe im kritischen Bereich, wird H0 zugunsten H1 verworfen, sonst angenommen. 8.2.4 Korrektes statistisches Testen Das zu untersuchende Testproblem ist stets vor der Durchführung des Tests zu formulieren und darf keinesfalls nachträglich zu Stichprobendaten gewählt werden. Gelingt es anhand eines geeigneten Tests mit vorgegebener Irrtumswahrscheinlichkeit α nicht, H0 abzulehnen, ist es unzulässig • andere Tests auszuprobieren, • α nachträglich zu erhöhen, • so lange Stichproben zu ziehen, “bis H0 schließlich doch noch abgelehnt wird”. 8.3 8.3.1 Einige statistische Tests Test auf den Anteilswert p (zweiseitig, exakt) Hypothesen: H0 : p = p0 , H1 : p 6= p0 . Testgröße: Tn (X1 , . . . , Xn ) = X Xi 1≤i≤n (mit B(1, p)-verteilten Zufallsvariablen Xi ). Untere und obere Grenzen Au , Ao des Annahmebereichs für die B(n, p)verteilte Testgröße Tn bei Test auf dem Niveau α: n αo , Au = min k ∈ N Pp0 (Tn ≤ k) > 2 n αo Ao = min k ∈ N Pp0 (Tn ≤ k) ≥ 1 − . 2 8.3.2 Test auf den Anteilswert p (einseitig, exakt) Hypothesen: H0 : p ≤ p0 , H1 : p > p0 . Testgröße: Tn (X1 , . . . , Xn ) = X Xi 1≤i≤n (mit B(1, p)-verteilten Zufallsvariablen Xi ). Untere und obere Grenzen Au , Ao des Annahmebereichs für die B(n, p)verteilte Testgröße Tn bei Test auf dem Niveau α: Au = 0 , Ao = min {k ∈ N |Pp0 (Tn ≤ k) ≥ 1 − α} . 8 ELEMENTE DER TESTTHEORIE 8.3.3 33 Test auf den Anteilswert p (zweiseitig, approximativ) Die Normalverteilungs-Approximation ist anwendbar, wenn np0 > 5 und n(1 − p0 ) > 5 ist. H0 : p = p0 , H1 : p 6= p0 . Tn (X1 , . . . , Xn ) = 1 X Xi n 1≤i≤n (mit B(1, p)-verteilten Zufallsvariablen Xi ). Untere und Grenzen Au , Ao des Annahmebereichs für die an obere q 0) -verteilte Testgröße Tn bei Test auf dem Ninähernd N p0 , p0 (1−p n veau α: 1 Au = p 0 − −z 2n r p0 (1 − p0 ) , n r 1 p0 (1 − p0 ) Ao = p 0 + +z . 2n n Hierbei ist z das obere α2 -Quantil der N (0, 1)-Verteilung. 8.3.4 Test auf den Anteilswert p (einseitig, approximativ) Die Normalverteilungs-Approximation ist anwendbar, wenn np0 > 5 und n(1 − p0 ) > 5ist. H0 : p ≤ p0 , H1 : p > p0 . Tn (X1 , . . . , Xn ) = 1 X Xi n 1≤i≤n (mit B(1, p)-verteilten Zufallsvariablen Xi ). Untere und Grenzen Au , Ao des Annahmebereichs für die an obere q p0 (1−p0 ) nähernd N p0 , -verteilte Testgröße Tn bei Test auf dem Nin veau α: Au = 0 , r 1 p0 (1 − p0 ) . Ao = p 0 + +z n 2n Hierbei ist z das obere α-Quantil der N (0, 1)-Verteilung. Beispiel 12 Eine studentische Organisation behauptet, bei den kommenden Senatswahlen seien ihr mindestens 30% der Stimmen sicher (ein historisches Beispiel, wie man sieht). Diese Behauptung soll statistisch widerlegt werden (α = 0.05), und zwar auf der Basis einer Wählerumfrage bei 65 Wählern. Wegen 65 · 0.3 > 5 und 65 · 0.7 > 5 ist eine Normalverteilungs-Approximation vertretbar. H0 : p ≥ 0.3 , H1 : p < 0.3 . 8 ELEMENTE DER TESTTHEORIE 34 P 1 Der Annahmebereich für die Testgröße Tn = 65 1≤i≤65 Xi hat die Grenzen r 0.3 · 0.7 1 − 1.64 · = 0.199 , Au = 0.3 − 130 65 Ao = 1 . Umfrageergebnis: Nur 12 Wähler wollen für die Organisation stimmen. Der Wert der Testgröße 12 65 = 0.185 liegt im kritischen Bereich, H0 wird verworfen. 8.3.5 Überprüfen einer Hypothese über p1 , . . . , pn Die Zufallsvariable X besitze die Ausprägungen 1, . . . , m mit unbekannten Wahrscheinlichkeiten pi = P (X = i). H0 : pi = p0i für alle i, H1 : pi 6= p0i für mindestens ein i. n unabhängigen Wiederholungen X1 , . . . , Xn der Zufallsvariablen X liefern absolute Häufigkeiten ni für die i-te Merkmalsausprägung. Damit bildet man die Testgröße X n2 1 i Tn = −n. n p0i 1≤i≤m Annahmebereich für Tn : 0 bis oberes α-Quantil der χ2 -Verteilung mit m − 1 Freiheitsgraden. Der Test ist anwendbar, wenn np0i > 1 für alle i und np0i > 5 für mindestens 80% der i gilt. Beispiel 13 Ein Würfel soll daraufhin geprüft werden, ob alle Augenzahlen gleich wahrscheinlich sind (p0i = 61 ). Es wird 300 mal gewürfelt. Es soll auf dem Niveau α = 0.05 getestet werden. Obergrenze des Annahmebereichs (α-Quantil der χ2 -Verteilung mit 5 Freiheitsgraden): 11.07. Die Würfelserie bringt die Ergebnisse n1 = 45, n2 = 60, n3 = 55, n4 = 40, n5 = 40, n6 = 60. Der χ2 -Anpassungstest ist anwendbar. 1 (452 + 2 · 602 + 552 + 2 · 402 ) − 300 = 9 ≤ 11.07. T300 = 50 Die Nullhypothese kann nicht verworfen werden und ist beizubehalten. 8.3.6 Test auf Poissonverteilung Die Zufallsvariable X besitze die Ausprägungen 0, 1, 2, . . .. Frage: Ist X poissonverteilt? H0 : X ist poissonverteilt, d.h. es gibt ein λ > 0 mit P (X = i) = H1 : X ist nicht poissonverteilt. λi i! · e−λ für i ∈ N0 , 8 ELEMENTE DER TESTTHEORIE 35 Mit den absoluten Häufigkeiten n0 , . . . , nm−1 für die i-te Merkmalsausprägung P bei n unabhängigen Wiederholungen von X bildet man λ̂ = n1 0≤i≤m−1 i· ni und damit die Testgröße λ̂ X n2 · i! e i −n. Tn = n λ̂i 0≤i≤m−1 Annahmebereich für Tn : 0 bis oberes α-Quantil der χ2 -Verteilung mit m − 2 Freiheitsgraden. λ̂m−1 ·e−λ̂ > 1; ggf. fasse man die oberen Klassen (Anwendbar, falls n· (m−1)! zusammen.) 8.3.7 Test auf Normalverteilung Die n-fache unabhängige Wiederholung einer Zufallsvariablen X liefere Werte in den Klassen Ki =]ei−1 , ei ], i = 1, . . . , m. Frage: Ist X normalverteilt? H0 : x ist N (µ, σ)-verteilt mit bestimmten Parametern (µ, σ), H1 : X ist nicht normalverteilt. Mit µ̂ = 1 n P 1≤j≤n Xj und σ̂ = q 1 n−1 · P 1≤j≤n (Xj − µ̂)2 und den Besetzungs- zahlen n1 , . . . , nm der Klassen Ki bildet man die Größen p̂i = Φ( eiσ̂−µ̂ ) − Φ( ei−1σ̂−µ̂ ) für i = 1 . . . , m und die Testgröße 2 X 1 ni Tn = −n. n p̂i 1≤i≤m Annahmebereich für Tn : 0 bis oberes α-Quantil der χ2 -Verteilung mit m − 3 Freiheitsgraden. (Anwendbar, falls n · p̂i > 1 für alle i und n · p̂i > 5 für mindestens 80% aller i gilt.) 8.3.8 Test auf Unabhängigkeit zweier Merkmale Zwei Merkmale (Zufallsvariablen) X und Y einer Grundgesamtheit haben die Ausprägungen {1, . . . , r} bzw. {1, . . . , s}. Hypothesen: H0 : X und Y sind unabhängig. H1 : X und Y sind nicht unabhängig. Nach N unabhängigen Wiederholungen des Zufallsexperiments (X, Y ) Anzahl des Auftretens des Ausprägungspaares (i, j), sei nij die jeweilige P P sowie n.j = 1≤i≤r nij und ni. = 1≤j≤s nij die entsprechenden Marginalhäufigkeiten. Darstellung der gezählten Häufigkeiten in einer Kontingenztafel: 8 ELEMENTE DER TESTTHEORIE X=1 X=2 .. . X=r 36 Y =1 n11 n21 .. . Y =2 n12 n22 .. . ... ... ... .. . Y =s n1s n2s .. . n1. n2. .. . nr1 n.1 nr2 n.2 ... ... nrs n.s nr. n.. = N Mit diesen Häufigkeiten bildet man die Testgröße X 1 X n2ij − 1 T N = N · ni. n.j 1≤i≤r 1≤j≤s Der Annahmebereich für TN erstreckt sich von 0 bis zum oberes αQuantil der χ2 -Verteilung mit (r − 1)(s − 1) Freiheitsgraden (bei vorgegebenem Signifikanzniveau α). (Anwendbar, falls ni. n.j > N für alle i, j und ni. n.j > 5N für mindestens 80% aller i, j gilt). Beispiel 14 Es ist zu untersuchen, ob die Religionszugehörigkeit irgendeinen Einfluß auf die Wahl des Ehepartners hat (α = 0.05). Eine Stichprobenerhebung über die Religionszugehörigkeit der Partner ergibt (mit den Abkürzungen rk: röm.-kath., ev: evangelisch, so: sonstige Bekenntnisse, bl: bekenntnislos, m: männlich, f: weiblich): m/rk m/ev m/so m/bl f/rk 9919 782 248 812 11761 f/ev 693 344 27 108 1172 f/so 97 22 134 31 284 f/bl 293 44 22 197 556 11002 1192 431 1148 13773 Der Annahmebereich ist [0, 16.92] (0 bis oberes 5%-Quantil der χ2 -Verteilung mit 9 Freiheitsgraden). Da der Wert für TN im kritischen Bereich (Ablehnungsbereich) liegt, ist H0 (“Unabhängigkeit”) zu verwerfen. 8.3.9 Vorzeichentest (Mediantest) Es soll (ohne Annahme über den Verteilungstyp) die relative Lage der Mediane µ̃x , µ̃y zweier Zufallsvariablen X, Y geprüft werden (“verteilungsfreies” oder “nichtparametrisches” Testverfahren). Dazu werden Stichproben (Xi , Yi ) vom Umfang n gezogen (Stichproben mit Xi = Yi läßt man unberücksichtigt und reduziert n entsprechend). Man setzt Di = 1, falls Xi > Yi ist und Di = 0, falls Xi < Yi ist. Damit bildet man die B(n, p)-verteilte Testgröße X Tn = Di . 1≤i≤n Je nach Testproblem werden für Tn geeignete Hypothesen formuliert (z.B. H0 : p ≤ 21 stellvertretend für H0 : µ̃x ≤ µ̃y beim entsprechenden einseitigen Problem). 8 ELEMENTE DER TESTTHEORIE 37 Beispiel 15 Es ist statistisch abzusichern (α = 0.05), dass man bei Verwendung eines Düngemittels A unter gleichen Bedingungen einen besseren Ertrag erzielt als mit einem Düngemittel B. Dazu werden n = 20 Kontrollflächen gebildet, die je zur Hälfte mit A und mit B gedüngt werden. Die Erträge (ai , bi ) der i-ten Kontrollfläche bewertet man mit P Di = 1 für ai > bi und mit Di = 0 für ai < bi . Für die Testgröße T20 = 1≤i≤20 Di erhält man den Annahmebereich {0, . . . , 14} bei H0 : p ≤ 12 . Die Durchführung des Tests liefere für (ai , bi ) die Werte (46, 48), (58, 49), (50, 49), (50, 48), (52, 45), (46, 47), (46, 42), (58, 56), (55, 56), (45, 50), (48, 40), (60, 55), (52, 49), (40, 38), (44, 47), (50, 45), (50, 49), (56, 54), (44, 42), (60, 50). Wegen T20 = 15 ist damit auf dem Niveau α = 0.05 die Überlegenheit von A statistisch nachgewiesen. 8.3.10 Erwartungswert einer normalverteilten Größe Von der Zufallsvariablen X sei bekannt, dass sie (näherungsweise) N (µ, σ)verteilt ist (mit unbekannten µ und σ). Es sollen Nullhypothesen der Form µ = µ0 (bzw. µ ≥ µ0 oder µ ≤ µ0 ) anhand einer Stichprobe x1 , . . . , xn geprüft werden. Hierzu ist die Testgröße √ (µ̂ − µ0 ) n Tn = σ̂ q P P 1 2 mit µ̂ = n1 1≤j≤n Xj und σ̂ = 1≤j≤n (Xj − µ̂) zu bilden. Tn ist n−1 t-verteilt mit n − 1 Freiheitsgraden (für n > 30 näherungsweise auch N (0, 1)-verteilt). Je nach Testproblem (einseitig, zweiseitig) ist ein entsprechender Annahmebereich zum vorgegebenen Signifikanzniveau zu konstruieren. Beispiel 16 Das Nettoeinkommmen von Studenten sei annähernd normalverteilt. Auf dem Signifikanzniveau α = 0.05 soll getestet werden, ob die Behauptung widerlegt werden kann, das durchschnittliche monatliche Nettoeinkommen von Studenten betrage mindestens 1625 DM (auch dies also ein historisches Beispiel). Dazu soll eine Stichprobe mit Umfang n = 20 herangezogen werden. √ 20 . Testproblem: H0 : µ ≥ 1625, H1 : µ < 1625. Testgröße: T20 = (µ̂−1625) σ̂ Das untere 5%-Quantil der t-Verteilung mit 19 Freiheitsgraden ist −1.729. Der Annahmebereich für T20 ist daher [−1.729, ∞[. √ 20 Die Stichprobe ergebe µ̂ = 1600 und σ̂ = 42. T20 = (1600−1625) = 42 −2.662 ist damit im Ablehnungsbereich und H0 wird zugunsten von H1 verworfen. 8.3.11 Varianz einer normalverteilten Größe Von der Zufallsvariablen X sei bekannt, dass sie (näherungsweise) N (µ, σ)verteilt ist (mit unbekannten µ und σ). Es sollen Nullhypothesen der 8 ELEMENTE DER TESTTHEORIE 38 Form σ 2 = σ02 (bzw. σ 2 ≥ σ02 oder σ ≤ σ02 ) anhand einer Stichprobe X1 , . . . , Xn geprüft werden. Hierzu ist die Testgröße Tn = (n − 1) · mit µ̂ = 1 n P 1≤j≤n Xj und σ̂ = q 1 n−1 σ̂ 2 σ02 P 1≤j≤n (Xj − µ̂)2 zu bilden. Tn ist χ2 -verteilt mit n − 1 Freiheitsgraden. Je nach Testproblem (einseitig, zweiseitig) ist ein entsprechender Annahmebereich zum vorgegebenen Signifikanzniveau zu konstruieren. Beispiel 17 In der Massenproduktion eines Industrieprodukts sei das Merkmal X annähernd normalverteilt (z.B. Wandstärke von Glasröhren). Wenn im Produktionsprozeß größere Störungen (z.B. Verschleiß von Maschinen) auftreten, wird sich zusätzlich zum Mittelwert µ von X auch die Varianz σ 2 ändern. Neben µ wird daher meist auch σ 2 als Maß für die Homogenität der Produktion überprüft. Da sich σ 2 durch Verschleiß meist vergrößert, testet man die Hypothese H0 : σ 2 ≤ σ02 gegen H1 : σ 2 > σ02 in regelmäßigen Abständen, um rechtzeitig auf Verschleiß der Werkzeuge aufmerksam zu werden. 8.4 8.4.1 Regressionsanalyse Lineare Regression Sei (x, Y ) ein zweidimensionales Merkmal. x sei keine Zufallsvariable, sondern ein willkürlich festlegbarer Parameter. Y sei eine Zufallsvariable, deren Verteilung vom gewählten Parameter x abhängt. Beispiel 18 x sei die Körpergröße (in cm) von Personen in einem bestimmten Gebiet, Y deren Körpergewicht (in kg). Für jedes x wird man eine bestimmte Verteilung von Y feststellen. Die Frage ist, wie die statistische Größe Y vom Parameter x abhängt. Wir nehmen an, daß für jedes x die Größe Y einer N (µ(x), σ)-Verteilung genügt und untersuchen unter dieser Voraussetzung den funktionalen Zusammenhang zwischen x und µ(x) (Regressionsfunktion). Die Regression von Y bzgl. x ist linear, wenn µ(x) = a + bx für alle x gilt. 8.4.2 Stichproben zur Regressionsanalyse Bei Untersuchungen der Regression werden Stichproben für (x, Y ) erhoben, indem zu festen Parametern x = xi (i = 1, . . . , k) die Zufallsvariable y ni -mal unabhängig gemessen wird. Es liegen dann Stichprobenwerte in folgender Form vor: (x1 , y11 ), (x2 , y21 ), .. ., (x1 , y12 ), (x2 , y22 ), .. . . . ., . . ., (x1 , y1n1 ) (x2 , y2n2 ) .. . (xk , yk1 ), (xk , yk2 ), . . ., (xk , yknk ) 8 ELEMENTE DER TESTTHEORIE 39 Aus diesen Werten werden Hilfsgrößen gebildet, die für den Test auf “lineare Regression” und ggf. zur Darstellung der Regressionsgerade benötigt werden. 8.4.3 Hilfsgrößen für die Regressionsanalyse • n = n1 + n2 + . . . + nk , Pk • x.. = i=1 ni xi , Pni • yi. = j=1 yij und Pk y.. = i=1 yi. , P x2.. k 1 2 • s2x = n−1 i=1 ni xi − n , P Pni 2 y..2 k 1 • s2y = n−1 i=1 j=1 yij − n , P k x.. y.. 1 • sxy = n−1 , i=1 xi yi. − n • byx = 8.4.4 sxy s2x und ayx = x.. −byx y.. . n Test auf lineare Regression H0 : Die Regression von y bzgl. x ist linear, d.h. es gibt a, b ∈ R mit µ(x) = a + bx. H1 : Die Erwartungswerte µ(x) hängen nicht linear vom Parameterwert x ab. Die Testgröße P s2xy k 1 2 1 2 i=1 ni yi. − n y.. − s2x k−1 Tn = · Pk Pni Pk 1 2 2 n−k yi. i=1 j=1 yij − i=1 ni ist Fk−2;n−k -verteilt. Der Annahmebereich zum vorgegebenen Signifikanzniveau α erstreckt sich von 0 bis zum rechten α-Quantil dieser F -Verteilung. 8.4.5 Bemerkungen zum Test auf lineare Regression Wird H0 nicht abgelehnt, so ist lineare Regression anzunehmen. Die auf Grund der Stichprobenwerte gefundene Regressionsgerade µ̂(x) = ayx + byx x ist dann die “beste Schätzung” für den unbekannten linearen Zusammenhang des Erwartungswertes von Y und dem Parameter x. Sie stimmt mit der Ausgleichsgeraden nach der “Methode der kleinsten Quadrate” überein. Oft wird eine lineare Regression von Y bzgl. x nicht über den gesamten Parameterbereich von x vorliegen. In diesem Fall betrachte man nur Paramterwerte x in einem geeignet eingeschränkten Bereich. 8 ELEMENTE DER TESTTHEORIE 8.5 40 Korrelationsanalyse Bei der Korrelationsanalyse betrachtet man einen zweidimensionalen Zufallsvektor (X, Y ), der aus normalverteilten Zufallsvariablen X und Y besteht. Dabei geht man von folgenden Annahmen aus: 1. X ist N (µ1 , σ1 )-verteilt, Y ist N (µ2 , σ2 )-verteilt. µ1 , µ2 und σ1 , σ2 seien fest, aber unbekannt. 2. Unter der Bedingung X = x ist die Zufallsvariable Y normalverteilt mit Erwartungswert µ(x) = µ2 + ρ · σσ12 · (x − µ1 ) und Varianz σ 2 = (1 − ρ2 )ρ22 . Die Konstante ρ heißt Korrelationskoeffizient von X und Y . Durch die Angabe von µ1 , µ2 , σ1 , σ2 , ρ ist die gemeinsame zweidimensionale Normalverteilung von X und Y eindeutig bestimmt. 8.5.1 Zusammenhang mit Regressionsanalyse Fasst man X als Parameter auf, so erfüllt das Paar (X, Y ) die Voraussetzungen der Regressionsanalyse, denn der Erwartungswert von Y hängt linear von x ab und die Varianz von Y hängt nicht von x ab. Die Gerade σ1 · (x − µ1 ) µ(x) = µ2 + ρ · σ2 heißt Regressionsgerade von Y bezüglich X. 8.5.2 Bedeutung des Korrelationskoeffizienten Fall ρ = 0 Die Zufallsvariablen X und Y sind unabhängig. Fall 0 < ρ < 1 Die Zufallsvariablen X und Y sind positiv korreliert, d.h. große X-Werte treten im Mittel mit großen Y -Werten auf. Die Regressionsgerade ist fallend. Fall −1 < ρ < 0 Die Zufallsvariablen X und Y sind negativ korreliert, d.h. große X-Werte treten im Mittel mit kleinen Y -Werten auf. Die Regressionsgerade ist fallend. Fall ρ = 1 oder ρ = −1 Die Werte von (X, Y ) liegen auf einer Geraden, die mit der Regressionsgeraden identisch ist. In diesem Fall bestimmt der Wert der Variablen X = x vollständig den Wert von Y , nämlich Y (x) = µ(x). Y ist in diesem Fall keine “echte” Zufallsvariable. 8.5.3 Zwei Testprobleme der Korrelationsanalyse Die bei der Korrelationsanalyse verwendeten Größen sind zu denen der Regressionsanalyse ähnlich. Bei der Korrelationsanalyse kann man allerings nicht davon ausgehen, dass zu festen x-Werten mehrere y-Werte gemessen werden, da die Ausprägungen von X zufällig sind. Man geht 8 ELEMENTE DER TESTTHEORIE 41 deshalb einfach von einer Stichprobe (x1 , y1 ), . . . , (xn , yn ) aus und bildet die Größen • n Stichprobenumfang Pn Pn 1 • s2x = n−1 ( i=1 x2i − n1 ( i=1 xi )2 ), Pn Pn 1 • s2y = n−1 ( i=1 yi2 − n1 ( i=1 yi )2 ), Pn Pn Pn 1 • sxy = n−1 ( i=1 xi yi − n1 ( i=1 xi ) · ( i=1 yi )), • r= sxy sx sy • byx = sxy s2x (Stichprobenkorrelationskoeffizient), und ayx = 1 n Pn i=1 xi − byx · 1 n Pn i=1 . Test auf Unabhängigkeit von X und Y • Testproblem: H0 : ρ = 0, H1 : ρ 6= 0. • Testgröße: Tn = (n − 2) · s2xy s2x s2y −s2xy • Verteilung: F1,n−2 Test für den Korrelationskoeffizienten • Testprobleme: – H 0 : ρ ≤ ρ0 , H 1 : ρ > ρ 0 – H 0 : ρ ≥ ρ0 , H 1 : ρ < ρ 0 – H0 : ρ = ρ0 , H1 : ρ 6= ρ0 q q √ 1+ρ0 1+r − ln 1−ρ • Testgröße: Tn = n − 3 ln 1−r 0 • Verteilung: N (0, 1) für n > 30. 8.6 Nichtparametrische Tests Bei den bisher besprochenen Tests wurden fast immer Annahmen über die Verteilung der Grundgesamtheit getroffen, wie z.B. die, dass eine normalverteilte Grundgesamtheit vorliegt. In der Praxis kann es vorkommen, dass solche Annahmen nicht nachgeprüft werden können und zweifelhaft sind. Für solche Fälle gibt es nichtparametrische Tests, die unabhängig von Verteilungsannahmen sind. Wir stellen exemplarisch zwei solche Tests vor. 8 ELEMENTE DER TESTTHEORIE 8.6.1 42 Vorzeichentest Der Vorzeichentest ist ein einfacher Test für eine quantitative Messgröße bei zwei verbundenen Beobachtungen. Es seien X und Y zwei Merkmale einer Grundgesamtheit, die gemeinsam die zweidimensionale Zufallsvariable (X, Y ) bilden. Sei S die daraus konstruierte eindi−X (“Vorzeichen von Y −X”). Die i-ten mensionale Zufallsvariable S = |YY −X| Realisierungen der Zufallsvariablen seien xi , yi bzw. si . Realisierungen mit yi − xi = 0 lässt man weg (der Stichprobenumfang reduziert sich dadurch ggf.). • Testgröße: S • Verteilung: B(n, p) mit p = P (S = 1) • Idee: X und Y sind genau dann gleich verteilt, wenn p = • Testproblem: H0 : p = 12 , H1 : p 6= 8.6.2 1 2 ist. 1 2 U-Test nach Mann-Whitney-Wilcoxon Der U-Test nach Mann-Whitney-Wilcoxon ist ein nichtparametrischer Test für zwei unverbundene Stichproben. Es seien X und Y unverbundene Zufallsvariablen und x1 , . . . , xN1 bzw. y1 , . . . , yN2 die zugehörigen Stichprobenwerte, wobei N1 ≤ N2 sei. Die beiden Stichproben werden gemeinsam zur aufsteigenden Folge z1 , . . . , zN geordnet (N = N1 + N2 ) und folgendermaßen mit Rangzahlen r1 , . . . , rN versehen: Falls zi−1 < zi < zi+1 ist, sei ri = i. Falls zi−k < zi−k+1 = . . . = zi = . . . = zi+l−1 < zi+l . Dadurch erhält man für jedes P xi eine Rangzahl ist, sei ri = 2i−k+l 2 r(xi ) und für jedes y eine Rangzahl r(y ). Seien R = i i 1 1≤i≤N1 r(xi ) und P R2 = 1≤i≤N2 r(yi ). • Testgröße: U = N1 N2 + N1 (N21 +1) −R1 mit Erwartungswert µU = (N +1) 2 und Varianz σU = N1 N212 . N1 N2 2 • Verteilung: N (µU , σU )(näherungsweise, falls N1 ≥ 8 und N2 ≥ 8) • Idee: X und Y sind genau dann gleich verteilt, wenn U nahe bei µU liegt. • Testproblem: H0 : U −µU σU = 0, H1 : U −µU σU 6= 0. LITERATUR 43 Literatur [1] http://wiwi.uni-giessen.de/home/rinne/statwas [2] NIST/SEMATECH e-Handbook of Statistical Methods http://www. itl.nist.gov/div898/handbook Inhaltsverzeichnis 1 Was ist Statistik? 1.1 Eine wissenschaftliche Methode . . . . . . . . . . . . . . . . 1.2 Gegenstand der schließenden Statistik . . . . . . . . . . . . 2 2 2 2 Merkmale 2.1 Messbarkeitseigenschaften von Merkmalen . . . . . . . . . 2.2 Diskrete und stetige Merkmale . . . . . . . . . . . . . . . . . 2 2 2 3 Häufigkeiten 3.1 Absolute und relative Häufigkeit (1) . . . 3.2 Klassierung von Merkmalswerten . . . . 3.3 Absolute und relative Häufigkeit (2) . . . 3.4 Absolute und relative Häufigkeitsdichte 3.5 Relative Summenhäufigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 3 3 3 4 4 4 Wahrscheinlichkeit 4.1 Wahrscheinlichkeit (empirisch) . . . . . . . . 4.2 Wahrscheinlichkeit (axiomatisch) . . . . . . . 4.3 Ereignisse . . . . . . . . . . . . . . . . . . . . . 4.4 Produkträume . . . . . . . . . . . . . . . . . . 4.5 Erwartungswert einer relativen Häufigkeit . . 4.6 Was ist Wahrscheinlichkeit? . . . . . . . . . . 4.7 Modellbildung . . . . . . . . . . . . . . . . . . 4.7.1 Alles in Ordnung? . . . . . . . . . . . . 4.7.2 Modell . . . . . . . . . . . . . . . . . . . 4.8 Die Ereignisalgebra F . . . . . . . . . . . . . . 4.9 Gleichwahrscheinlichkeit und Kombinatorik 4.9.1 Permutationen und Kombinationen . . 4.9.2 Permutationen mit Nebenbedingungen 4.10 Verteilung, Verteilungsfunktion . . . . . . . . 4.11 Varianz, Kovarianz . . . . . . . . . . . . . . . . 4.12 Die Tschebyscheffsche Ungleichung . . . . . 4.13 Gemeinsame Verteilung, Unabhängigkeit . . . 4.14 Eine Eigenschaft unabhängiger Variabler . . 4.15 Eigenschaften der Varianz . . . . . . . . . . . 4.16 Schwaches Gesetz der großen Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 4 5 5 5 6 6 6 6 7 7 8 8 8 9 9 9 10 10 11 11 . . . . . . . . . . INHALTSVERZEICHNIS 44 5 Spezielle Verteilungen 5.1 Die Binomialverteilung . . . . . . . . . . . . . . . . . . . 5.2 Die Normalverteilung . . . . . . . . . . . . . . . . . . . . 5.2.1 Als Grenzwert binomialverteilter Zufallsvariablen 5.2.2 Gaußsche Fehlerfunktion und Normalverteilung 5.2.3 Zentraler Grenzwertsatz . . . . . . . . . . . . . . . 5.2.4 Approximation von B(n, p) durch N (0, 1) . . . . . 5.3 Die Poissonverteilung . . . . . . . . . . . . . . . . . . . . 5.3.1 Inanspruchnahme einer Bedienstelle . . . . . . . 5.3.2 Die Poissonverteilung P(λ) . . . . . . . . . . . . . 5.3.3 Momente der Poissonverteilung . . . . . . . . . . 5.3.4 Summen poissonverteilter Zufallsvariabler . . . . 5.3.5 Approximation der Poissonverteilung . . . . . . . 5.4 Die Hypergeometrische Verteilung . . . . . . . . . . . . . 5.5 Zufallsvariablen mit unendlich vielen Werten . . . . . . . . . . . . . . . . . . . . 12 12 12 12 14 15 16 16 16 16 17 17 18 18 19 6 Stichproben und deren Verwendung 6.1 Stichproben . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.2 Schätzen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.3 Testen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 19 19 20 7 Elemente der Schätztheorie 7.1 Ein Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.1.1 Schätzung eines Fehleranteils . . . . . . . . . . . . 7.1.2 Eigenschaften der Schätzfunktion p̂ . . . . . . . . . 7.1.3 Konfidenzintervalle für p . . . . . . . . . . . . . . . 7.1.4 Approximative Konfidenzintervalle . . . . . . . . . . 7.2 Konfidenzintervalle . . . . . . . . . . . . . . . . . . . . . . 7.2.1 K.-I. für p (Normalverteilungsapproximation) . . . . 7.2.2 K.-I. für p (exakt) . . . . . . . . . . . . . . . . . . . . 7.2.3 K.-I. für µ einer N (µ, σ)-Verteilung (σ bekannt) . . . 7.2.4 K.-I. für µ einer N (µ, σ)-Verteilung (σ unbekannt) . 7.2.5 K.-I. für den Median µ̃ (Stichprobenumfang n ≥ 9) . . . . . . . . . . . 20 20 20 20 21 21 22 22 23 23 24 24 8 Elemente der Testtheorie 8.1 Ein Beispiel . . . . . . . . . . . . . . . . . . . . . . 8.1.1 Testen der Hypothese “die Münze ist fair” 8.1.2 α-Fehler und β-Fehler . . . . . . . . . . . . 8.1.3 Gütefunktion des Tests . . . . . . . . . . . 8.1.4 Kritische Bereich und Annahmebereich . 8.1.5 Vergrößerung des kritischen Bereichs . . . 8.1.6 Erhöhung des Stichprobenumfangs . . . . 8.1.7 Kontrolle des α-Fehlers . . . . . . . . . . . 8.1.8 Trennschärfe . . . . . . . . . . . . . . . . . 8.1.9 Einseitige Alternative H1 . . . . . . . . . . 8.2 Grundsätzliches zum statistischen Test . . . . . 8.2.1 Hat ein statistischer Test Beweiskraft? . . 8.2.2 Asymmetrie zwischen α- und β-Fehler . . 8.2.3 Struktur eines statistischen Tests . . . . . 8.2.4 Korrektes statistisches Testen . . . . . . . . . . . . . . . . . . . . . . 25 25 25 26 26 26 27 27 27 29 29 31 31 31 31 32 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ABBILDUNGSVERZEICHNIS 45 8.3 Einige statistische Tests . . . . . . . . . . . . . . . . . . . . 8.3.1 Test auf den Anteilswert p (zweiseitig, exakt) . . . . . 8.3.2 Test auf den Anteilswert p (einseitig, exakt) . . . . . 8.3.3 Test auf den Anteilswert p (zweiseitig, approximativ) 8.3.4 Test auf den Anteilswert p (einseitig, approximativ) . 8.3.5 Überprüfen einer Hypothese über p1 , . . . , pn . . . . . 8.3.6 Test auf Poissonverteilung . . . . . . . . . . . . . . . 8.3.7 Test auf Normalverteilung . . . . . . . . . . . . . . . 8.3.8 Test auf Unabhängigkeit zweier Merkmale . . . . . . 8.3.9 Vorzeichentest (Mediantest) . . . . . . . . . . . . . . . 8.3.10Erwartungswert einer normalverteilten Größe . . . . 8.3.11Varianz einer normalverteilten Größe . . . . . . . . . 8.4 Regressionsanalyse . . . . . . . . . . . . . . . . . . . . . . . 8.4.1 Lineare Regression . . . . . . . . . . . . . . . . . . . . 8.4.2 Stichproben zur Regressionsanalyse . . . . . . . . . 8.4.3 Hilfsgrößen für die Regressionsanalyse . . . . . . . . 8.4.4 Test auf lineare Regression . . . . . . . . . . . . . . . 8.4.5 Bemerkungen zum Test auf lineare Regression . . . 8.5 Korrelationsanalyse . . . . . . . . . . . . . . . . . . . . . . . 8.5.1 Zusammenhang mit Regressionsanalyse . . . . . . . 8.5.2 Bedeutung des Korrelationskoeffizienten . . . . . . . 8.5.3 Zwei Testprobleme der Korrelationsanalyse . . . . . 8.6 Nichtparametrische Tests . . . . . . . . . . . . . . . . . . . . 8.6.1 Vorzeichentest . . . . . . . . . . . . . . . . . . . . . . 8.6.2 U-Test nach Mann-Whitney-Wilcoxon . . . . . . . . . 32 32 32 33 33 34 34 35 35 36 37 37 38 38 38 39 39 39 40 40 40 40 41 42 42 Abbildungsverzeichnis 1 2 3 4 5 6 Gütefunktion des Tests “die Münze ist fair” . . . . . Gütefunktion für verschiedene kritische Bereiche . Gütefunktion für verschiedene Stichprobenumfänge Gütefunktionen zum Signifikanzniveau α = 0.05 . . . Gütefunktion für den einseitigen Test (n = 5) . . . . Gütefunktion für den einseitigen Test (n = 16) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 27 28 28 30 30 Index F -Verteilung, 23 H0 -Hypothese, 31 H1 -Hypothese, 31 α-Fehler, 26 β-Quantil der N (0, 1)-Verteilung, 22 β-Fehler, 26 β-Quantil der F -Verteilung, 23 β-Quantil der t-Verteilung, 24 t-Verteilung, 24 B(n, p)-verteilt, 12 H(N, M, n)-verteilt, 18 N (0, 1)-verteilt, 15 N (m, σ)-verteilt, 15 P(λ)-verteilt, 17 Ablehnwahrscheinlichkeit, 26 Annahmebereich, 27 Ausprägung, 2 Binomialkoeffizient, 8 binomialverteilt, 12 Binomialverteilung, 12 einseitig, 29 einseitiger Test, 29 Entscheidungsvorschrift, 25 Ereignis, 5 Ergebnis, 4 erwartungstreu, 20 Erwartungswert, 5 Indikatorfunktion, 5 inferentielle Statistik, 2 Intervallschätzung, 19 Irrtumswahrscheinlichkeit, 32 Kardinalskala, 2 Klassen, 3 Kollektive, 2 Konfidenzintervall, 21 Konfidenzwahrscheinlichkeit, 21 konsistent, 20 Konvergenz nach Wahrscheinlichkeit, 11 Korrelationsanalyse, 40 Korrelationskoeffizient, 40 korreliert, negativ, 40 korreliert, positiv, 40 kritischer Bereich, 27 lineare Regression, 38 Massen, statistische, 2 Median, 24 Merkmal, 2 Merkmal, diskretes, 2 Merkmal, qualitatives, 2 Merkmal, quantitatives, 2 Merkmal, stetiges, 2 Mutungsintervall, 21 Fehler 1. Art, 26 Fehler 2. Art, 26 Fehleranteil, 20 Fehlerwahrscheinlichkeit, 21 floor-Funktion, 25 Gütefunktion, 26 Gaußsche Fehlerfunktion, 14 Gesamtheiten, statistische, 2 Grenzwertsatz seltener Ereignisse, 17 Häufigkeit, absolute, 3 Häufigkeit, relative, 3, 4 Häufigkeitsdichte, absolute, 4 Häufigkeitsdichte, relative, 4 hypergeometrisch verteilt, 18 Hypothese, 20 Hypothese H0 annehmen, 25 Hypothese H0 testen, 25 Hypothese H0 verwerfen, 25 nichtparametrische Tests, 36 Nominalskala, 2 normalverteilt, 15 Normalverteilung, 12 Nullhypothese, 29 Ordinalskala, 2 Permutation, 8 Poissonverteilung, 17 Populationen, 2 Produktraum, 5 Punktschätzung, 19 46 INDEX r-Kombination, 8 Rangskala, 2 Realisierung, 20 Regression, 38 Regressionsfunktion, 38 Regressionsgerade, 40 schätzen, 19 Schätzfunktion, 20 Schätztheorie, 19 Schätzung, 19 Schätzwert, 20 schwaches Gesetz der großen Zahlen, 11 Signifikanzniveau, 27 Skala, metrische, 2 Standardabweichung, 9 standardnormalverteilt, 15 Statistik, 2 Statistik, induktive, 2 Statistik, inferentielle, 2 Statistik, schließende, 2 statistische Sicherheit, 21 statistischer Test, 20 Stichprobe, 2, 19 Stichprobenumfang, 19 Streuung, 9 Student-Verteilung, 24 Summenhäufigkeit, relative, 4 Testgrose, 31 Testtheorie, 19 Testvariable, 25 Trennschärfe, 29 Tschebyscheffsche Ungleichung, 10 unabhängig, 10 unbiased, 20 unverzerrt, 20 Varianz, 9 Verteilung, 9 Verteilung, gemeinsame, 10 verteilungsfreie Tests, 36 Verteilungsfunktion, 9 Verteilungsfunktion, gemeinsame, 10 Vertrauensgrenzen, 21 verwerfen, 20 Wahrscheinlichkeit, 6 47 Wahrscheinlichkeit eines Ereignisses, 5 Wahrscheinlichkeit, axiomatische, 5 Wahrscheinlichkeit, empirische, 4 Wahrscheinlichkeitsraum, endlicher, 5 Wahrscheinlichkeitstheorie, 2 Zentraler Grenzwertsatz, 15 Ziehen ohne Zurücklegen, 18 Zufälligkeit, 19 Zufallsvariable, 5