2.6 250 Transformationen von Beobachtungen b Umrechnung von 0 F in 0 C: x 7→ y = a + b · x oder lineare Transformation. x 7→ y = b · (x + c) 5 gedrehtes Histogramm der transformierten Daten y 251 Transformation y = 1 + 0.5 x 6 y3 x 0 0 0 x3 10 5 Histogramm der ursprünglichen Daten x 0 0 10 252 2.6 d LageY = a + b · LageX StreuungY = |b| · StreuungX . Form unverändert. e Standardisierte Stichprobe zi = (xi − x)/ sdX −→ z = 0 , varZ = 1 . 253 2.6 f Form: SchiefeX Langschwänzigkeit = Exzess X 1 Xn = SchiefeZ = zi3 i=1 n 1 Xn = Exzess = zi4 − 3 i=1 n Z 254 g Nicht-lineare, monotone Transformationen x 7→ ghxi verändern Lage, Streuung und Schiefe. 4 gedrehtes Histogramm der transformierten Daten y 255 Transformation y = lghxi 1 y3 0 x -1 0 0 x3 10 5 Histogramm der ursprünglichen Daten x 0 0 10 Median und Quantile sind äquivariant”, med 7→ ghmedi ” 2.6 256 h Logarithmus- und Wurzel-Transformation: Positive Schiefe nimmt ab. −→ Nützlich! Beispiel Hagel-Energien ( Grossversuch IV” zur ” Hagelbekämpfung im Napfgebiet, 1980-85) 50 100 0 0 0 40000 0 5 257 2.6 i Hagelenergie = 0, lgh0i = −∞ ! Deshalb x 7→ lghx + ci . ∗2 ∗ c =? Nicht einfach c = 1 ! c = q1/4 /q 3/4 . j Basis des Logarithmus: Mess-Einheit. 2.7 258 Wertebereiche, Datensorten b Der Bereich der möglichen Werte: 1. alle” reellen Zahlen; ” 2. die positiven Zahlen, mit oder ohne Null: Beträge; 3. Intervall [0, 1] oder [0%, 100%] : Anteile, Prozentzahlen; 4. nicht-negative ganze Zahlen: Anzahlen, Zähldaten; 5. {0, 1/n, 2/n, . . . , (n − 1)/n, 1} für geg. n : Anteile aus Anzahlen; 6. {0, 1} (0 oder 1) : binäre Daten; 7. {0, 1, 2, . . . , n} als Codes für Herkunft, Typ, Farbe,. . . : nominale Daten; 8. Intervall [00, 3600) oder [00, 1800) : Winkel, Richtungen, zirkuläre Daten. 2.7 259 c Zensierte Daten. Überlebenszeiten von Patienten nach einer Herzoperation, Erholungszeiten nach einer Erkrankung, Brenndauern von Glühbirnen, Verweildauern von Zugvögeln: Beob. zensuriert”: überlebenszeit ≥ Beobachtungsdauer ci . ” d Ordnungsstruktur. Nominale Daten: Codes 1, 2, 3, ..., Ordnung 1 < 2 < 3 . . . nicht sinnvoll interpretierbar. Unterschiede 6= Differenzen zwischen Beobachtungen. 260 2.7 e Zustand v. Bäumen: Klassen v. 0 (gesund) bis 4 (abgestorben). Bonitierung”. Ordnung von Bedeutung. ” Aber wieder: Unterschiede 6= Differenzen. Ordinalskala. Temperaturen: Unterschiede = Differenzen. Differenzenskala Konzentrationen: Unterschiede = Verhältnisse. Quotientenskala 2.8 261 * Transformationen und Unterschiede zwischen Beobachtungen a Daten so transformieren, dass Unterschiede = Differenzen ! Oder: Unterschiede = Rang-Differenzen. Rang-Transformation xi 7→ Ranghxii hängt von der ganzen Stichprobe ab! 262 Stetige Verteilungen 6.1 Einleitung • 263 Repetition diskrete Verteilungen: 1. Verteilung gegeben durch die P hX = xi für alle mögl. Werte x (=0,1,2,... f. Zähldaten) 2. oder: durch (theoretische) kumulative Verteilungsfn. F hxi = P hX ≤ xi . 3. Zufallszahlen mit einer bestimmten Verteilung: z` uniform verteilte Zz. in (0, 1) x` = F −1hz` i : Zz. mit Verteilung F . Punkte 2 und 3 genau gleich für stetige Verteilungen. • 264 Wir brauchen noch etwas mehr Theorie = Wahrscheinlichkeitsrechnung: • Transformationen von Zufallsvariablen, • mehrere Zufallsvariable, gemeinsame Verteilung • Modell für eine Zufalls-Stichprobe = mehrere Messungen der gleichen Grösse” ” Bitte repetieren Sie die Grundbegriffe Ableitung und Integral (Stammfunktion) Buch 6.1.d-e 6.2 265 Grundbegriffe, Exponential- und uniforme Vert. d Beispiel Regentropfen. X -Koordinate. 0 F hxi = x−α β−α 1 für x < α für α ≤ x ≤ β für x > β . X ∼ U hα, βi : uniforme Verteilung, Rechtecks-Vert. Anwendung: Rundungsfehler: Mess-Ergebnis 1.2 , eigentlicher Messwert X ∼ U h1.15, 1.25i . ( Wahrer” Wert: weiter weg!) ” 6.2 266 e Exponential-Verteilung: F hxi = Anwendungen: 1 − e−λx für für 0 x≥0, x<0 • Zeit bis zum Eintreffen eines bestimmten Ereignisses” ” = Wartezeit”. ” • Speziell: Zeit bis zu einem Defekt bei einem Gerät bis zum Tod bei Lebewesen = Lebensdauer, Überlebenszeit 267 6.2 f* Zusammenhang mit Poisson-Verteilung: P zählt Ereignisse in einem bestimmten Zeitabschnitt. X = Wartezeit bis zum nächsten Ereignis, Y = Anzahl Ereignisse in der nächsten Stunde λ0 P hY = 0i = exph−λi = P hX > 1i = FX h1i 0! Poisson-Prozess 268 6.2 g Beispiel Atomzerfall. Exponential-Verteilung. Für welchen Zeitpunkt wird die Wahrscheinlichkeit, dass das Isotop bis dahin zerfällt, gleich 1/2 ? Antwort: Median 1 1 ⇒ −λx = log F hxi = 1 − e−λx = e 2 2 x = logeh2i/λ = 0.693/λ ⇒ Der Wahrscheinlichkeit 1/2 des Zerfalls eines einzelnen Isotops entspricht die relative Häufigkeit 1/2 der zerfallenen Isotope bis zum Zeitpunkt 0.693/λ . Strahlung halbiert, Halbwertszeit. z x1 2 x F hxi 269 i Zufallszahlen, exponential-verteilt x = F −1 hzi = − λ1 logeh1 − zi 1 z1 0 0 270 6.2 j Darstellung von Verteilungen. Für diskrete Zufallsv. P hX = xi , Stabdiagramm (Histogramm). Der rel. Häufigkeit für Klasse (c, c + ∆c) entspricht P hc ≤ X ≤ c + 4ci = F hc + 4ci − F hci Klasseneinteilung verfeinern! – Flächen proportional zu Anteilen: P hc < X ≤ c + 4ci/4c = (F hc + 4ci − F hci) /4c Grenzübergang 4c → 0 : Höhe = Ableitung von F . 6.2 271 k Definition. Dichte f einer stetigen Zufallsvariablen X = Ableitung ihrer Verteilungsfunktion F , f hxi = F 0 hxi . Umkehrung: F hxi = Z x −∞ f htidt Stammfunktion von f mit F h−∞i = 0 . Wahrscheinlichkeiten für Intervalle: P ha < X ≤ bi = F hbi − F hai = f hxi ≥ 0 für alle x , R ∞ f hxidx −∞ = 1. Z b f htidt . a 6.2 272 l Exponential-Verteilung F hxi = 1 − e−λx f hxi = λe−λx für x > 0 . Wahrsch. für ein Intervall: Fläche unter der Dichtekurve. f hxi 1 α @ P ha < X ≤ bi @ @ 0 0 qα a b 1 3 x m uniforme Verteilung auf (α, β) . f hxi =? 6.3 273 Kennzahlen für stetige Verteilungen a Quantile: qα = F −1hαi . P b Für klassierte Daten war das arithmetische Mittel x ≈ k zk fk . zk : Mitte der k ten Klasse” Ck fk : relative Häufigkeit. X ” EhXi ≈ zk P hck−1 ≤ X ≤ ck i k X = k 4c : Klassenbreite. 4c ck−1 + 2 – F hc + 4ci − F hc i k−1 k−1 · 4c, 4c Grenzübergang: F hck−1 + 4ci − F hck−1i → f hck−1i 4c X ck−1f hck−1i4c EhXi ≈ Z ∞ EhXi = Z k c f hci dc = −∞ x f hxi dx 274 6.3 d Varianz: var ≈ X (zk − x e)2P hck−1 ≤ X < ck i Zk ∞ 2 x − EhXi f hxi dx varhXi = −∞ = E (X − µ)2 σ 2 = varhXi . σ : Standardabweichung. 275 6.3 e Exponential-Verteilung: f hxi = λe−λx für x ≥ 0 . Z ∞ EhXi = x λe−λx dx 0Z ∞ xe−λx dx = λ 0 Z ∞ ∞ −1 = λ· x − 1 · − λ1 e−λx dx λeλx 0 0 Z ∞ ∞ 1 1 = e−λx dx = − e−λx = . 0 λ λ 0 Z 2 ∞ 1 varhXi = λe−λx dx = λ2 0 1 x− λ 6.4 276 Transformationen von Zufallsvariablen a Zufallsvariable X , Verteilung gegeben. Zufallsvariable Y : Y hωi = g Xhωi . Verteilung von Y ? ghxi = a + b · x ghxi = lghxi X = 5.1 ⇒ lineare T. Logarithmus-T. Y = lgh5.1i = 0.71 . 6.4 c 277 F (Y )h0.71i = P hY ≤ 0.71i = P hlghXi ≤ lgh5.1ii = P hX ≤ 5.1i = F (X)h5.1i. Allgemein: F (Y )hyi = P hY ≤ yi = P hghXi ≤ ghxii = P hX ≤ xi = F (X)hxi. Schwierigkeit: Zufallsvariablen X, Y und die Zahlen x, y auseinanderhalten. d lg−1hyi = exphyi, F (Y )hyi = F (X) g −1hyi lg−1h0.71i = 5.1, F (Y )h0.71i = F (X)h5.1i . 6.4 e 278 y = ghxi F (Y )hyi = P hY ≤ yi = P hghXi ≤ ghxii = P hX ≤ xi = F (X)hxi. Schwierigkeit: Zufallsvariablen X, Y und die Zahlen x, y auseinanderhalten. f Wie wird die Dichte transformiert? – Kettenregel: ... g Beispiel Quadrat. X ∼ U h0, 2i Z Fläche eines Quadrates mit Seitenlänge X . Y = X 2 h Skalen-Änderung: Y = bX f (Y )hyi = 1b f (X)hxi 6.4 279 Median von Y : k Kennzahlen: D Quantile, E qα(Y ) = g qα(X) , falls g monoton zunehmend ist. D D E E ghXi ≤ g qα(X) = P Y ≤ g qα(X) . α = P hX ≤ qα(X)i = P l Erwartungswert, Varianz: keine wesentliche Vereinfachung. m Lineare Transformation: y = a + bx EhY i = a + b · EhXi, varhY i = b2 · varhXi. 6.4 280 n Wie wird die Dichte transformiert? – Kettenregel: f (Y ) ghxi · g 0hxi = f (X)hxi . g 0 g −1hyi f (Y )hyi = f (X) g −1hyi o Beispiel Quadrat. X ∼ U h0, 2i Z Fläche eines Quadrates mit Seitenlänge X . x 1 , f (X)hxi = F (X)hxi = 2 2 √ √ z F (Z)hzi = F (X)h zi = 2 1 f (Z)hx2i · 2x = f (X)hxi = 2 =⇒ 1 f (Z)hzi = √ . 4 z f (Z)hzi = (F (Z))0hzi ! F (X) 1 281 f (X) 0.5 0.5 0 F (Z) 1 1 x 2 x 0 1 2 f (Z) 1 0.5 0.5 z 0 1 z 4 0 1 4 282 6.4 p Skalen-Änderung. X ∼ Exphλi , ghxi = b · x mit b > 0 . g −1hyi = y/b , g 0 hxi = b . F (Y )hyi = F (X)hy/bi = 1 − e−λy/b f (Y )hb · xi · b µ= λ b ⇒ Y ∼ Exphλ/bi = f (X)hxi = f (Y )hyi = λ e−λx λ e−λy/b . b f (Y )hyi = µe−µy . 6.4 283 Median von Y : s Kennzahlen: D Quantile, E qα(Y ) = g qα(X) , falls g monoton zunehmend ist. D D E E ghXi ≤ g qα(X) = P Y ≤ g qα(X) . α = P hX ≤ qα(X)i = P t Erwartungswert: keine wesentliche Vereinfachung. EhZi = 4 3 R 4 z f (Z)hzi dz 0 = R 4 1 z √ 0 4 z dz = 1 4 R √ 4 z dz 0 = Beispiel Quadrat 1 4 2 3/2 4 z 3 0 = 2 R R oder EhZi = ghxi f (X)hxi dx = 02 x2 12 dx = 12 x3 0 = 34 (Dagegen ist g EhXi = 12 = 1 .) 3 6.4 u Lineare Transformation: 284 y = a + bx EhY i = a + b · EhXi, v Herleitung: Z EhY i = varhY i = b2 · varhXi. Z y f (Y )hyidy y = a + bx, Z (a + bx)f (Y )ha + bxi b dx = Z EhY i = a dy = b dx f (X)hxi (a + bx) Z b b dx f (X)hxi dx + b xf (X)hxi dx = a + b · EhXi varhY i = E (Y − EhY i)2 = E (a + bX − (a + b EhXi))2 = E b2 (X − EhXi)2 = b2 varhXi . 285 6.4 w Standardisierte Zufallsvariable. Zufallsvariable X mit Erwartungswert µ und Varianz σ 2 . Transformation: Z so, dass EhZi = 0 und varhZi = 1 : ghxi = (x − µ)/σ . 1 EhZi = (EhXi − µ) = 0, σ 1 varhZi = varhXi = 1 . σ2 6.5 286 Die Normalverteilung a Normalverteilung, Gausssche Glockenkurve” spielt eine ” zentrale Rolle in der Wahrscheinlichkeitstheorie und Statistik. • Mathematisch einfache Gesetze • Passt in vielen Situationen nicht schlecht. Grund: Wenn sich viele kleine, unabhängige Zufallseffekte summieren, ist die Summe näherungsweise normalverteilt nach dem Zentralen Grenzwertsatz”. ” −→ Hypothese der Elementarfehler” ” 6.5 b Standard-Normalverteilung s N : Dichte 1 f hzi = φhzi = c · e− 2 z Normierungskonst.” c so, dass ” 287 2 R ∞ f hzi dz −∞ = 1. √ c = 1/ 2π f hzi − 0.2 −3 −2 −1 0 1 2 z 3 Kumulative Verteilungsfunkt. Φ . Keine geschlossene” Formel. ” 6.5 c Wegen der Symmetrie ist EhZi = 0 . varhZi = c Z z 2 exp 1 − z2 2 288 dz = 1 e Lage und Streuung soll sich an die Daten anpassen. Lineare Transformation von Z ∼ s N : X = µ + σZ EhXi = ..., varhXi = ..., St.abw.hXi = ... , Dichte: 2 + 1 exp f (X)hxi = √ 2π σ * 1 − 2 x−µ σ X normalvert. m. Erwartungswert µ und Var. σ 2 . X ∼ N hµ, σ 2i . f Kumulative Verteilungsfunktion 1 F hxi = √ 2πσ Z x exp −∞ * 1 − 2 t−µ σ 2 + dt .4960 .4562 .4168 .3783 .3409 .3050 .2709 .2389 .2090 .1814 .1562 .1335 .1131 .0951 .0793 .0655 .0537 .0436 .0351 .0281 .5000 .4602 .4207 .3821 .3446 .3085 .2743 .2420 .2119 .1841 .1587 .1357 .1151 .0968 .0808 .0668 .0548 .0446 .0359 .0287 0.01 z= ↓ + → 0.00 0.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0 1.1 1.2 1.3 1.4 1.5 1.6 1.7 1.8 1.9 0.02 .4920 .4522 .4129 .3745 .3372 .3015 .2676 .2358 .2061 .1788 .1539 .1314 .1112 .0934 .0778 .0643 .0526 .0427 .0344 .0274 0.03 .4880 .4483 .4090 .3707 .3336 .2981 .2643 .2327 .2033 .1762 .1515 .1292 .1093 .0918 .0764 .0630 .0516 .0418 .0336 .0268 289 1 − Φhzi 0.04 .4840 .4443 .4052 .3669 .3300 .2946 .2611 .2296 .2005 .1736 .1492 .1271 .1075 .0901 .0749 .0618 .0505 .0409 .0329 .0262 0.05 .4801 .4404 .4013 .3632 .3264 .2912 .2578 .2266 .1977 .1711 .1469 .1251 .1056 .0885 .0735 .0606 .0495 .0401 .0322 .0256 0.06 .4761 .4364 .3974 .3594 .3228 .2877 .2546 .2236 .1949 .1685 .1446 .1230 .1038 .0869 .0721 .0594 .0485 .0392 .0314 .0250 0.07 .4721 .4325 .3936 .3557 .3192 .2843 .2514 .2206 .1922 .1660 .1423 .1210 .1020 .0853 .0708 .0582 .0475 .0384 .0307 .0244 0.08 .4681 .4286 .3897 .3520 .3156 .2810 .2483 .2177 .1894 .1635 .1401 .1190 .1003 .0838 .0694 .0571 .0465 .0375 .0301 .0239 0.09 .4641 .4247 .3859 .3483 .3121 .2776 .2451 .2148 .1867 .1611 .1379 .1170 .0985 .0823 .0681 .0559 .0455 .0367 .0294 .0233 Tabelle! Standardisieren! F (X)hxi = F (Z) x−µ σ =Φ x−µ σ 290 Beispiel: X ∼ N h10, 22i . Wie gross ist F (X)h14i ? z = (x − µ)/σ = 2 , F (s N )h2i = Φh2i =? Tabelle: 1 − Φh2i = 0.023 , also F (X)h14i = Φh2i = 0.977 . Für negative z benützt man die Symmetrie: Φhzi = P hZ ≤ zi = P hZ ≥ −zi = 1 − P hZ ≤ −zi = 1 − Φh−zi 291 x = 8 , µ = 10 , σ = 2 : z = (8 − 10)/2 = −1 , 0.1587 , Φhzi = 1 − Φh−zi = 1 − Φh1i = F (X)h8i = 0.1587 . g Wahrscheinlichkeiten für Intervalle Intervall (µ − σ, µ + σ) (µ − 2σ, µ + 2σ) (µ − 3σ, µ + 3σ) Wahrscheinlichkeit ca. 2/3; ca. 95%; ca. 100% (99.7%). 95% 6 292 F hxi 6 2/3 ? ? f hxi µ − 2σµ − σ µ µ + σ µ + 2σ 68% 95.5% 99.73% 99.994% x x - 293 6.5 h Beispiel Waage. Messfehler X normalverteilt mit µ = 0 und σ = 0.63 mg. Wie gross ist die Wahrscheinlichkeit, dass eine Messung um ≤ 0.63 mg, 1.26 mg oder 1 mg vom wahren Wert abweicht? Für 1 mg rechnen wir P h|X| ≤ 1i = P h−1 ≤ X ≤ 1i = 2P h0 ≤ X ≤ 1i 1−0 1 = 2 Φh1.587i − = 0.888 . = 2P 0 ≤ Z < 0.63 2 6.5 294 i Beispiel Küken: Normalvert. passt recht gut auf das Histogramm. Welches µ, σ ? −→ Schätzung der Parameter. 20 15 10 5 0 80 90 100 110 120 130 295 6.5 j Beträge: X > 0 , schiefe Verteilungen. Also nicht normalverteilt. Aber: Y = loghXi ∼ N hµ, σ 2i . X hat eine Lognormal-Verteilung mit Parametern µ und σ 2 . Dichte und Kennzahlen der Lognormal-Vert. nicht wichtig. Arbeiten Sie mit logarithmierten Daten! 296 Beschreibende Statistik mehrdimensionaler Daten 3.1 Grafische Darstellungen einer Stichprobe von Zahlenpaaren a Beispiele Grösse des Vaters und Grösse des Sohnes. • Geschwindigkeit und Bremsweg eines Autos, • Spraydosen-Treibgasverbrauch und Ozongehalt, • Blattfläche und mittl. Fotosynthese-Rate bei einer Pflanze, • Sauerstoffzufuhr und Ausbeute bei einem chem. Versuch, • Druck und Volumen bei einem physikalischen Experiment, • Zusammenhang zwischen den zwei Variablen? 297 3.1 b Notation: [xi, yi] . Bivariate Stichprobe. Streudiagramm (scatterplot). Streudiagramm funktioniert oft nicht auf Anhieb: Ausreisser • zuviele Punkte • verdeckte Punkte • c 0 10 Frequenz 20 30 40 0 20 40 60 80 100 298 299 d Einfachste und anschaulichste Art einer Beziehung ist ein linearer Zusammenhang. Oft durch Transformation einer oder beider Var. zu erreichen. Oder logarithmierte Achsen”, Log-Skala”. ” ” e 40 Frequenz 20 30 10 0 0.0 0.05 0.10 0.15 Kehrwert der Fallhöhe 0.20 0.3 Wellenlänge 0.2 0.1 0.0 0 20 40 60 Fallhöhe 80 100 3.2 300 Die Pearsonsche Produktmomenten-Korrelation ( gewöhnliche Korrelation”) ” a Kennzahl für den Zusammenhang: Korrelation. b xi0 = (xi − x)/ sdX , yi0 = (yi − y)/ sdY 1 Xn r = xi0 yi0 XY i=1 n−1 sXY rXY = sdX sdY 1 Xn s = (xi − x)(yi − y) XY i=1 n−1 rXY : Produktmomenten-Korrelation oder Pearson correlation. sXY : Kovarianz. ◦ 301 y0 6 0 0 ◦ [xi, yi] ◦ ◦ xi0 · yi0 - x0 ◦ ◦ ◦ 3.2 302 d Spezialfälle: yi = a + bxi : • xi = y i : sXY = rXY = 1 . • 1 n−1 yi − y = b · (xi − x) , 2 sdY2 = b2 sdX , Pn i=1 (xi rXY = 1 , falls b > 0 ist, • 2 2 − x)2 = sdX = sd Y, Xn 1 b s = (xi − x)2 = b s XY i=1 n−1 2 rXY = b sdX /(sdX ·|b| sdX ) = b/|b| rXY = −1 falls b < 0 Punkte eng um eine Gerade: rXY nahe bei ±1 . Die Produktmomenten-Korrelation misst Stärke & Richtung des linearen Zusammenhanges zwischen X und Y . e Beispiel Wasserfälle rXY = −0.74 , r1/X,Y = +0.96 . 3.2 h • 303 Symmetrische Stichprobe: rXY = 0 , kein linearer Zus.hang. y0 6 ◦ ◦ ◦ ◦ ◦ ◦ ◦ - x0 ◦ 304 3.2 i Streudiagramme mit gleichem Korrelations-Koeffizienten können sehr verschieden aussehen! j rXY nicht robust! 3.3 305 Rangkorrelationen a Spearmansche Rangkorrelation. Korrelation zwischen den Rängen der xi und den Rängen der yi , (Sp) rXY sRanghXi,RanghY i = sdRanghXi sdRanghY i Xn 6 = 1− Ranghxii − Ranghyii 2 , i=1 n(n2 − 1) falls keine Bindungen (geteilten Ränge) auftreten. 0 20 40 60 Fallhöhe 80 100 10 2 2 (Sp) c Beispiel der Wasserfälle: rXY = −0.93. 0 Rang(Frequenz) 4 6 8 40 10 Frequenz 20 30 4 6 Rang(Fallhöhe) 8 10 306 307 3.3 d Wenn die xi monoton wachsend transformiert werden, ändert sich r (Sp) nicht, bleibt (invariant)”. XY ” (Sp) rXY = ±1 , falls Reihenfolgen der X - und der Y -Werte genau gleich oder entgegengesetzt sind. Rangkorrelation misst Stärke und Richtung des monotonen Zusammenhangs. 308 Inhomogenität: • Indirekter Zusammenhang: X und Y hängen von Z ab. • Ursache – Wirkung - Zus’hang. Oft das Gewünschte. • Zufall. • Zur Interpretation von Korrelationen 3.4 Hämoglobingehalt und Oberfläche der roten Blutkörperchen: Für Frauen und Männer kein Zusammenhang. Zulassung zur Hochschule. 309 Schein-K. zwischen Zeitreihen: • Technische” K.: Standardisierung mit gleicher, ungenau ” erfasster Grösse. • Störche und Geburten; Zahl der Fernsehapparate und der Zahl der Verbrechen (?) Regression: Wichtig! Später. 6.7 310 Gemeinsame und bedingte Verteilung a Beispiel Regentropfen X, Y Koordinaten. Uniforme Verteilung auf einer Platte: W. eines Ereignisses prop. zur Fläche. y 6 F hx, yi y - x x 311 6.7 b Gemeinsame Verteilung von 2 Zufallsvariablen X (1), X (2) gegeben durch kumulative Verteilungsfunktion F hx1, x2i = P hX (1) ≤ x1, X (2) ≤ x2i Wahrscheinlichkeiten für Rechtecke: P ha1 < X (1) ≤ b1, a2 < X (2) ≤ b2i = F hb1, b2i − F hb1, a2i − F ha1, b2i + F ha1, a2i. 6.7 c Dichte f hx1, x2i = lim h1 →0,h2→0 312 P x1 − h1 < X (1) ≤ x1 , x2 − h2 < X (2) ≤ x2 h1 h2 ∂ 2F hx , x i 1 2 = . ∂x1 ∂x2 Regentropfen-Beispiel: f hx1, x2i = α : Fläche der Platte. d P D 1/α, falls [x1, x2] ∈ Platte; sonst , 0 [X (1), X (2)] ∈ A E = Z A f hx1, x2i dx1 dx2 313 6.7 e Randverteilung: P ha < X (1) ≤ b i = P ha < X (1) ≤ b , X (2) beliebigi 1 1 1 1 Z b1 Z ∞ = f (1)hx1 i = Zx1∞=a1 x2 =−∞ x2 =−∞ f hx1, x2i dx2 dx1 f hx1, x2i dx2 f Bedingte Verteilung, geg. Ereignis A mit P hAi > 0 : wie gehabt. 314 Exponential-Verteilung: X Zeit bis zum ersten Impuls des Geigerzählers. 1. Sekunde kein Ton. Wie ist dann der Rest Y = X − 1 der Wartezeit” verteilt? ” P hX > xi = 1 − F hxi = e−λx; exph−λ(1 + y)i P hX > 1 + yi = P hY > y | X > 1i = P hX > 1i exph−λi = exph−λyi = P hX > yi. P hX > yi = P hY > y | X > 1i . aber Ereignisse verschieden! Vt. von Y = X − 1 , geg. X > 1 (also Y > 0 ), = Vt. von X . X − 1|X > 1 ∼ Exphλi Gedächnislosigkeit” ” 6.8 315 Unabhängige Zufallsvariable und Korrelation a Zwei Zufallsvariable X (1) und X (2) heissen unabhängig, falls e X (2) ∈ Bi e = P hX (1) ∈ Ai e · P hX (2) ∈ Bi e P hX (1) ∈ A, für alle Ae und Be . – Dichten multiplizieren sich auch: f hx1, x2i = = = ∂ 2F hx1 , x2i ∂x1 ∂x2 P x1 − h1 < X (1) ≤ x1 , x2 − h2 < X (2) ≤ x2 lim h1 →0,h2→0 lim P h1 →0,h2→0 x1 − h1 < X (1) h1 = f (1)hx1 i · f (2)hx2i. h1 h2 P x2 − h2 < X (2) ≤ x2 ≤ x1 · h2 316 317 6.8 b X1 ∼ N hµ1, σ12i, X2 ∼ N hµ2, σ22i unabhängig. Gemeinsame Dichte * * 2 + 1 1 x −µ 1 x2 − 1 1 1 √ f hx1, x2i = √ exp − · exp − 2 σ1 2 σ2 2πσ1 2πσ2 2!+ 1 = exp 2πσ1σ2 * 1 − 2 x1 − µ 1 σ1 2 + x2 − µ 2 σ2 Spezialfall der zweidimensionalen Normalverteilung. 318 319 6.8 c Mass für die Abhängigkeit: Korrelation r12 = s12 (sd1 sd2) . Modell-Grössen einsetzen! µ1 = EhX (1)i , µ2 = EhX (2)i . (1) covhX (1), X (2)i = Eh(X − µ1) (X (2) − µ2)i Z Z covhX (1), X (2)i = hX (1), X (2)i = p (x1 − µ1) (x2 − µ2) f hx1, x2i dx1dx2 covhX (1), X (2)i varhX (1)i · varhX (2)i 6.8 320 d Wenn zwei Zufallsvariable unabhängig sind, sind sie unkorreliert Unkorrel. Zufallsvar. sind nicht notwendigerweise unabhängig. Korrelation erfasst nur lineare Komponente” der Abhängigkeit. ” e 1 -1 y 6 @ @ @ f hy|X = xii @ @ 0 x1 - @ @ @ @ @ - @ @ @ - 1 x2 x 321 f Zweidimensionale Normalverteilung: Dichte f hx1, x2i = c·exp α1 (x1 − µ1)2 + α2(x2 − µ2)2 + α12(x1 − µ1)(x2 − µ2) [µ1, µ2] = [EhX (1)i, EhX (2)i] : Mittelpunkt der Ellipsen konstanter Dichte. α -s: varhX (1)i, varhX (2)i, covhX (1), X (2)i , Länge und Orientierung der Hauptachsen. α12 = 0 unabhängige, also unkorrelierte Normalverteilungen. Multivariate Statistik! 5.7 322 Summen von Zufallsvariablen Wir betrachten der Einfachheit halber diskrete Zufallsvariable. a Verteilung der Anzahl Erfolge in n Versuchen: Binomial-V. hergeleitet als V. der Summe von unabh. Xi ∼ Bernoullihπi . Anzahl Unfälle innerhalb einer Woche in zwei Stadtteilen oder Anzahl Bakterien-Kolonien auf 2 Schalen oder Anzahl fehlerhafte Gläser in zwei Produktions-Losen. Xi ∼ Phλii , unabhängig. Verteilung von X (1) + X (2) ∼? Gleiche Frage für beliebige gemeinsame Verteilung von X (1), X (2) . 323 5.7 b Mit Hilfe von Zufallszahlen: siehe Übungen! Liefert aber keine übersichtlichen Zusammenhänge. c P hS = 0i = P hX1 = 0, X2 = 0i = e−λ1 · e−λ2 = e−(λ1 +λ2) P hS = 1i = P hX1 = 0, X2 = 1i + P hX1 = 1, X2 = 0i λ1 λ1 = e−λ1 2 e−λ2 + 1 e−λ1 e−λ2 1! 1! (λ1 + λ2)1 e−(λ1+λ2 ) = 1! .21 I @ @ @ x2 4 @ @ 324 6 w w w .17· 3 @w@[email protected] @ @ w .30· .27 @ @w 1 0 w w 0 w 1 w 2 @ I @ @ @ w w w .27· .30 @ @w @ I @ @ w w w .16· .17 @ @ w @w 3@I@@ 2 w w 4 5 - x1 S=3 5.7 325 d Resultat: Wenn man zwei (oder mehrere) unabhängige, Poisson-verteilte Zufallsvariable zusammenzählt, erhält man wieder eine Poisson-verteilte Zufallsvariable. Die Parameter λj addieren sich. S = X1 + X2 ∼ Phλ1 + λ2i . (Anschaulich klar!) e Binomial-Verteilung X1 ∼ Bhn1, πi, X2 ∼ Bhn2 , πi, =⇒ X1, X2 unabhängig X1 + X2 ∼ Bhn1 + n2, πi. Anschaulich klar: X1 +X2 = Anz. Erfolge in n1 +n2 Versuchen. X1 ∼ Bhn1, π1i, X2 ∼ Bhn2, π2i, π1 6= π2 : keine B ! 326 5.7 f Allgemein: P hS = si = = Xs Xsk=0 k=0 P hX1 = k, X2 = s − ki P hX1 = ki · P hX2 = s − ki 5.7 327 i Kennzahlen von S ? X∞ EhSi = s P hS = si s=0 X∞ Xs (x1 + s − x1) · P hX1 = x1 , X2 = s − x1 i = s=0 x1 =0 X∞ X ∞ (x1 + x2 ) · P hX1 = x1, X2 = x2i = x2 =0 x1 =0 X∞ X X X ∞ ∞ ∞ x P hX = x , X = x i + x2 .. = 1 1 1 2 2 x1 =0 x2 =0 x2 =0 x1 =0 X∞ X∞ x1 P hX1 = x1, X2 = x2i = + x1 =0 X∞ x2 =0 x2 x2 =0 X∞ x1 =0 P hX1 = x1, X2 = x2i EhSi = EhX1i + EhX2i + 328 EhSi = EhX1i + EhX2i j Varianz von S varhSi = varhX1i + varhX2i + 2 covhX1, X2i Falls unabhängig: varhSi = varhX1i + varhX2i Der Erwartungswert der Summe von zwei (oder mehreren) Zufallsvariablen ist gleich der Summe ihrer Erwartungswerte. Die Varianz der Summe von zwei (oder mehreren) unabhängigen Zufallsvariablen ist gleich der Summe ihrer Varianzen. 329 k Beispiel. Je 100 Würste aus 2 Fabriken werden auf Haltbarkeit geprüft. Die W., dass sie länger als 2 Wochen geniessbar bleiben, sei für jede Wurst der einen Fabrik 0.6, bei der anderen 0.3. Wie gross sind E und Varianz der Anzahl geniessbarer Würste unter allen 200 Würsten? X1 ∼ Bh100, 0.6i, X2 ∼ Bh100, 0.3i , S = X 1 + X2 EhSi = EhX1i + EhX2i = 100 · 0.6 + 100 · 0.3 = 90 varhSi = varhX1i + varhX2i = 100 · 0.6 · 0.4 + 100 · 0.3 · 0.7 = 45 Wenn 200 Würste zufällig” aus der ganzen Produktion ” der beiden Fabriken (mit gleichen Anteilen der beiden Teile) ausgewählt würden, wäre S ∼ Bhn = 200, π = 0.45i . varhSi = 200 · 0.45 · 0.55 = 49.5 > 45. EhSi = 200·0.45 = 90 , 330 5.7 l Einfache Zufalls-Stichprobe: X1, ..., Xn gleich verteilt und unabhängig (i.i.d.) EhXii = µ, = Pn i=1 Xi , varhXii = σ 2, i = 1, 2, . . . , n X = S/n arithmetisches Mittel EhSi = nµ EhXi = µ varhSi = nσ 2 varhXi = σ 2/n. varhXi = varhSi/n2 X = S/n , −→ EhXi = EhSi/n, 331 In Worten: Der Erwartungswert des arithmetischen Mittels von mehreren gleich verteilten Zufallsvariablen ist gleich dem Erwartungswert der einzelnen Zufallsvariablen. Die Varianz des arithmetischen Mittels von n unabhängigen gleich verteilten Zufallsvariablen ist gleich der Varianz der einzelnen Zufallsvariablen, dividiert durch n . Die Standardabweichung des arithmetischen Mittels ist die Standardabweichung der einzelnen Zufallsvariablen, √ dividiert durch n , die Wurzel aus n . 332 5.7 m Unvermeidliche Verwirrung: EhXi = Erwartungswert eines arithmetischen Mittels, Kennzahl einer Kennzahl !? Was soll das? Einfachen Zufalls-Stichprobe = Modell für Stichprobe”aus Kap.2. ” Verteilung von anderen Stichproben-Kennzahlen bestimmen, z. B. die Verteilung der (empirischen) Varianz? Verteilung hat Erwartungswert, Median, (theoretische) Varianz, ... 333 5.7 n Simulation, Zufallszahlen. Je n Zufallszahlen zeigen, was eine Zufalls-Stichprobe als Resultate ergeben könnte: n Einzelwerte, Summe, arithmetisches Mittel, Median, emp. Varianz, ... 1000 mal durchführen −→ 1000 Werte für med, ... simulierte Verteilung des Medians. 5.7 334 o Beispiel Kartenziehen. 0.4 relative Häufigkeit Wahrscheinlichkeiten 0.2 0.0 −1 0 1 2 4 9 4 10−10 z p Arithmetisches Mittel der simulierten Z (k) : 1 P (k) = −0.6975 ≈ EhZi = −0.6774 kz m c k hz (k)i = 0.2165 ≈ varhZi = varhZii/4 = 0.2258 . var Simulation der Kennzahlen der Verteilung. e 6.9 335 Funktionen von mehreren Zv.: Summen X1 ∼ U h0, 1i, X2 ∼ U h0, 1i , unabhängig. S = X1 + X2 . x2 1 2 − s0 - f (S) S < s0 6 S<s s ? s x1 0 0 1 1 2 336 0 falls s ≤ 0 falls 0 < s ≤ 1, s2/2 F (S)hsi = 1 − (2 − s)2/2 falls 1 < s ≤ 2, falls s > 2 . 1 falls 0 ≤ s ≤ 1, s f (S)hs) = 2 − s falls 1 < s ≤ 2, sonst . 0 Dreiecks-Verteilung. 6.9 337 f Summen von unabhängigen stetigen Zufallsvariablen X (1), X (2) : F (S)hsi = = = = f (S)hsi = = = P hS ≤ si = P hX (1) + X (2) ≤ si Z ∞ Z s−x1 f hx1, x2idx2 dx1 −∞ Z−∞ ∞ Z s−x1 f (2)hx2 idx2 f (1)hx1idx1 −∞ Z−∞ ∞ F (2)hs − xi f (1)hxidx −∞ R ∞ d F (2)hs − xif (1)hxidx Zds −∞ d F (2)hs − xif (1)hxidx Z ds f (2)hs − xif (1)hxidx. 6.9 338 i 2 unabhängige, Z standard-normalverteilte Zufallsvariable: √1 exph− 1 x2 i √1 exph− 1 (s − x)2 i dx f (S)hsi = 2 2 2π 2π 2 Z 1 √1 exp − 2x2 − 2xs + s2 dx = 2π 2 2 Z 1 2 2 √1 f (S)hsi = exp − 2 t − 2s − 2 2s + s2 dt 2π 2 2 2 Z √ 1√ 2π 2 = √1 2π = exp exp −1 2 −1 2 √s 2 t−s/2 √ 1/ 2 2 2 R dt · exp 1 √ √ 2π (1/ 2) −1 2 exp √ √s 2 −1 2 t−s/2 √ 1/ 2 Integral integriert Dichte von N hs/2, (1/ 2)2i . Deshalb =1. Es bleibt S ∼ N h0, 2i . 2 6.9 339 j Wenn X1 ∼ N hµ1 , σ12i und X2 ∼ N hµ2, σ22i unabhängig sind, hat die Summe wieder eine Normalverteilung, X1 + X2 ∼ N hµ1 + µ2, σ12 + σ22i Die Erwartungswerte und die Varianzen addieren sich. m Kennzahlen? Wie für diskrete Verteilungen EhX1 + X2i = EhX1i + EhX2i varhX1 + X2i = varhX1i + varhX2i + 2 covhX1, X2i = varhX1i + varhX2i falls unabh. 6.9 340 n Beispiel Waage. Messfehler X ∼ N h0, 0.632 i . Wie kann man ein Gewicht auf 0.5 mg genau” bestimmen? ” Genauer: Messergebnis soll mit Wahrscheinlichkeit von 95% um nicht mehr als 0.5 mg vom wahren Wert abweichen. Mehrmals unabhängig wägen. Resultat = X . Für n unabhängige Messwerte gilt X ∼ N h0, (0.63 mg)2/ni . p Standardisiertes X : Z = X/ (0.63 mg)2/n ∼ N h0, 1i . Es soll P h−0.5 ≤ X ≤ 0.5i = 0.95 sein. Es gilt P h−1.96 ≤ Z ≤ 1.96i = 0.95 . p Also 1.96 = 0.5/ (0.63 mg)2/n oder n= 1.96 0.5 0.63 2 = 6.09 . a 6.9 341 Funktionen von mehreren Zufallsvariablen T = minhX (1), X (2)i . F (T )hti = P hT ≤ ti =? b Allgemein: X (1), X (2), . . . , X (m) stetig mit Dichte f . T = ghX (1), X (2), . . . , X (m)i P hT ≤ ti = Z∞ ... Z∞ Z f hx1, . . . , xmi dxm dxm−1 . . . dx1 x1 =−∞ xm−1 xm ∈At A = {xm | ghx1, x2, . . . , xmi ≤ t} . 342 6.9 c X1, X2, X3, X4, X5, Xi ∼ Exphλi . Verteilung des Medians? d 1 , X2 , X3 , X4 , X5 i T = medhX 5-faches Integral! d Simulation der Verteilung des Medians von 5 exp.-vert. Xi . ` 1 2 3 4 5 6 7 8 9 10 1.422 0.357 3.887 0.663 2.385 4.009 3.855 5.576 1.040 1.852 0.044 0.390 0.048 0.130 0.444 0.606 1.062 1.105 0.866 1.159 X2 X1 X3 1.795 1.844 1.385 2.024 0.506 0.879 8.615 2.443 4.448 1.998 X4 0.155 0.034 5.600 0.411 3.840 0.591 3.301 1.848 0.237 4.082 X5 0.414 3.850 0.379 0.806 1.176 1.381 0.409 0.734 2.044 1.799 343 T` 0.414 0.390 1.385 0.663 1.176 0.879 3.301 1.848 1.040 1.852 m = 10 3.0 344 m = 200 40 2.0 30 1.0 20 0.0 10 0 1 2 3 0 4 5 6 50 400 100 600 150 0 0 200 m = 1000 0 0 1 2 3 4 5 6 1 2 3 4 5 6 m = 5000 0 1 2 3 4 5 6 345 Schliessende Statistik 7 7.1 Schätzungen Drei Grundfragestellungen der Schliessenden Statistik a Aufgabe der Schliessenden oder Analytischen Statistik: Brücke zwischen Modellen und konkreten Daten schlagen. Beispiel Asbest. 346 7.1 b Beispiel Schlafverlängerung. Unterschied Xi in der Schlafdauer bei Verwendung von Schlafmittel A gegenüber Mittel B. Modell: Xi ∼ N hµ, σ 2i , unabhängig. Beobachtungen: 1.2, 2.4, 1.3, 1.3, 0.0, 1.0, 1.8, 0.8, 4.6, 1.4. 347 Fragen: 1 Um wieviel wird der Schlaf verlängert? Wie gross ist wohl µ? In welchen Grenzen liegen die Werte µ die aufgrund der Daten noch plausibel erscheinen? 3 Ist es möglich, dass Mittel A nicht wirksamer ist als B? Ist µ ≤ 0 mit den Beobachtungen vereinbar? 2 c Methoden: 1 Schätzungen, 2 Tests, 3 Vertrauensintervalle. 348 7.1 d Modell der Zufalls-Stichprobe: Daten werden unter gleichbleibenden Verhältnissen und unabhängig voneinander gewonnen. Unabhängig und gleich verteilt (independent and identically distributed, i.i.d.) 7.2 349 Schätzungen für ... Normalverteilung a Problem: Man hat Daten und ein Modell für sie in Form einer parametrischen Verteilungsfamilie, Xi ∼ N hµ, σ 2i (i.i.d.). Werte der Parameter festlegen, und zwar so, dass sie möglichst gut zu den Daten passen. d Bsp. Schlafverlängerung. Erwartungswert µ schätzen durch das arithm. Mittel X c = S2 . Varianz σ 2 schätzen durch die empir. Varianz var P10 2 2 X = 1.58, S 2 = 91 i=1 (X i − X) = 1.51 = 1.23 . Modell, das die Daten gut beschreibt: N h1.58, 1.232i . e Beispiel Küken : X = 106.25, Xi ∼ N h106.25, 10.62 i . 350 S 2 = 111.8 = 10.62 , 20 15 10 5 0 80 90 100 110 120 130 351 7.2 f Prinzip: Kennzahlen der Stichprobe mit Kennzahlen der Verteilung identifizieren! −→ Momenten-Methode. g µ ist (auch) Median der Normalverteilung. Also durch den Median der Stichprobe schätzen. 352 d sind Schätzungen h X und med für den Parameter µ der Normalverteilung. Schätzungen sind Funktionen, die den n Daten eine Zahl und damit den n Zufallsvariablen X1, . . . , Xn eine Zufallsvariable zuordnen. Schätzungen sind selbst Zufallsvariable. Bazeichnung: Grossbuchstaben: X, T oderHut über Parameter, µb, σb, allgemein θb. 7.3 353 Eigenschaften von Schätzungen a Eigenschaften v. Schätzungen m. Hilfe des W.modells studieren. Dazu vergessen wir f. den Moment die konkreten Daten wieder. Legen Modell für die Beobachtungen fest. b Xi ∼ N hµ, σ 2i, i = 1, 2, ..., n (i.i.d.). d ? Verteilungen studieren! Schätzung X oder med Verteilung von X ? d? Verteilung von med z.B. Simulation. Übungen. Ergebnisse? d von n = 5 Xi ∼ N h5, 1i . Empirischer Median med 5 simulierte Wahrscheinlichkeit 0.15 0.10 0.05 0.0 3 Dichte 0 0.2 simuliert asymptotisch 0.5 exakt 7 354 7.3 355 d Welche Schätzung soll man wählen? Die T soll möglichst nahe bei θ liegen! Ein Mass für die Grösse der Abweichungen ist der mittlere quadratische Fehler” ” MSE = E (T − θ)2 = varhT i + (EhT i − θ)2 b = EhT i − θ misst Unterschied zw. dem Erwartungswert von T und dem Sollwert” θ . ” Systematischer Fehler oder Bias b der Schätzung. Bias b = 0 : erwartungstreu” ” b2 und varhT i sollen klein sein! Oder: Erwartungstreu ( b = 0 ) und varhT i möglichst klein! 7.3 356 e Xi ∼ N h5, 1i, i = 1, 2, ..., n . d = µ = 5. EhXi = EhXii = µ = 5 . Ehmedi d ? Simulation: ≈ 0.294 . varhXi = n1 varhXii = 51 . varhmedi Standardabweichungen ( Standardfehler”) 0.447 resp. 0.542. ” X gewinnt! ... auch gegenüber allen anderen. Für normalvert. Beob. ist X die beste Schätzung von µ ! f Exponential-Vert. Schätzung der Halbwertszeit (Median) τ = logeh2i/λ . Xi ∼ Exphλi . Empirischer Medians von n = 3 und n = 5 Beobachtungen. d 6= τ ! Ehmed b 6= 0 . b nimmt mit zunehmendem n ab. Die Verteilung wird schmaler. 357 [ n= Ehmedi, Median 5 3 H H j ? H Beobachtungen Median, n = 3 Median, n = 5 Dichte 0 Bias 2 4 7.3 358 g b = 0 : biasfrei oder erwartungstreu (englisch unbiased). Viele übliche Schätzungen sind erw.treu, wenn die Modell-Annahmen stimmen”. ” j Varianz σ 2 = varhXii schätzen! P 1 2 S 2 = n−1 i (Xi − X) . Gute Schätzung? Erwartungstreu? Es sei EhX i = 0 . i D Xn E X n E (Xi − X)2 = E Xi2 − nX 2 Xn i=1 i=1 = i=1 EhXi2i − n EhX 2i 1 = n σ 2 − n · σ 2 = (n − 1)σ 2 n Deshalb der ominöse Faktor 1/(n − 1) in S 2 . k Verteilung von S 2 hängt von der Verteilung der Xi ab! 359 8. Tests 8.3 Weitere Beispiele und Begriffe a Beispiel Schlafverlängerung Nullhypothese: kein Unterschied Xi ∼ N h0, 1.5i; Xi unabhängig b Alternativen: (HA)µ : Xi ∼ N hµ, 1.5i mit µ > 0 (einseitig). Beobachtungen zusammenfassen! X Test-Statistik” U . ” 360 8.3 c Verwerfungsbereich? U = X ∼ N h0, 1.5/10i falls H0 gilt. √ T = X/ 0.15 ∼ N h0, 1i −→ Extreme Werte: T ≥ 1.64 . d x = 1.58, t = 1.58/1.5 = 1.05 < 1.64 . Verwerfung. Effekt statistisch nachgewiesen. 361 8.3 f Modern: Statt t mit c zu vergleichen, können wir P hT > 1.05i = P hX > 1.58i = 0.15 ausrechnen. W. von mindestens so extremen Werten wie der beobachtete. P-Wert p t > 1.64 ⇐⇒ p < 0.05 8.4 362 Vorgehen bei einem statistischen Test (Rezept) a Problem formulieren, in Worten. b Nullhypothese H0 . Modell für die Beobachtungen. Oft: Parametrische Familie, H0 legt Parameter fest. In der Regel möchte man H0 gerne widerlegen. c Alternativen HA werden in Betracht ziehen (einseitig oder zweiseitig) d Test-Statistik. Verteilung von U unter Alternativen soll möglichst stark verschieden sein von der Vt. unter der Nullhypothese (Macht!). Oft: Parameter testen: H0 : θ = θ0 . −→ Test-Statistik U = θb. 363 Art des Experimentes, Beobachtungs-Situation [a] ? Modelle für eine Beobachtung: H Nullhypothese [b] Q Q Q Q Q HH j H Alternativen [c] ? (1) Test-Statistik [d] Q Q Q QQ s ) Verteilung der Test-Statistik unter der Nullhypothese [e] W.dichte Niveau [f,j] (2) bereich [f] (1) Verwerfungs- 364 8.4 e Verteilung F0hU i von U unter H0 Standardisierte Test-Statistik T . f Klassische Variante: Verwerfungsbereich bestimmen. Willkürlich: Niveau α wählen. Kritischer Wert”, oft aus Tabelle oder Diagramm. ” g Bis hierher: Test-Vorschrift fertig verpackt” ” in den Lehr- und Nachschlagebüchern nachzulesen. 365 Art des Experimentes, Beobachtungs-Situation [a] ? Modelle für eine Beobachtung: H Nullhypothese [b] Q Q Q Q Q HH j H Alternativen [c] ? (1) Test-Statistik [d] Q Q Q QQ s ) Verteilung der Test-Statistik unter der Nullhypothese [e] Nullhypothese verworfen! [i] (3) 6 1 Ausrechnen des Wertes der Test-Statistik [h] (3) 366 8.4 h Beobachtungen −→ Wert t der (standard.) Test-Statistik T i Klassisch: Entscheidung: Falls t ∈ K , wird die Nullhypothese verworfen. j Modern: P-Wert bestimmen. Entscheidung: Falls p < 5% , wird die Nullhypothese verworfen. 8.5 367 Tests für eine St. oder zwei gepaarte Stichproben a Problem eine Stichprobe”: Xi, i = 1, 2, . . . , n , unabhängig. ” Kann ein bestimmter Lageparameter (Erwartungswert, Median) gleich einem vorgegebenen Wert µ0 sein? H0 : µ = µ 0 . µ0 : physikalische Konstante, chemische Konzentration, Grenzwert. 8.5 368 b Problem zwei gepaarte oder verbundene Stichproben”: ” Blutdruck vor und nach Medikamenten-Einnahme, • Grösse von Vater und Sohn (Beobachtungseinh = Familie) • Schlaflänge bei zwei Schlafmitteln, • • Anzahl beobachteter Verhaltenselemente von Mäusen bei Licht und bei Dunkelheit. Verbundene Stichproben” ” Xi = Differenz der Zielgrösse in den beiden Zuständen. (evtl. nach Transformation). Frage: Differenz im wesentlichen gleich null”? ” H0 : µ = 0. 8.5 369 d z-Test: besprochen. H0 : Xi ∼ N hµ0, σ02i, i = 1, . . . , n , unabhängig; die Varianz σ02 sei bekannt HA : Xi ∼ N hµ, σ02i, (a) µ > µ0 ; U : X= 1 n i = 1, . . . , n , unabhängig, mit (c) µ 6= µ0 (b) µ < µ0 ; Pn i=1 Xi F0hU i : X ∼ N hµ0, σ02/ni K: Testgrösse standarisieren: Z = X−µ √0 σ0 / n ∼ N h0, 1i 370 Kritische Werte für Z : (a) c so, dass 1 − Φhci = 0.05 (b) c so, dass Φhci = 0.05 (c) c1 so, dass 1 − Φhc1i = 0.025 c0 so, dass Φhc0i = 0.025 ⇒ c = 1.64 ; K = {Z ≥ 1.64} ⇒ c = −1.64; K = {Z ≤ −1.64} ⇒ c1 = 1.96; ⇒ c0 = −c1; K = {|Z| ≥ 1.96} Kritische Werte für standardisierte Testgrösse unabhängig von n, µ0, σ0 . e Beispiel Reifen (nach Lehn+Wegmann, 1992). Vergleich von 2 Profilen auf Winterreifen bezügl. Bremswirkung 10 Testfahrzeuge. σ0 = 3 aus früheren Versuchen. 371 i Profil A Profil B Differenz Vorzeichen 1 44.5 44.9 0.4 + 55.0 54.8 – 0.2 – 2 52.5 55.6 3.1 + 3 4 50.2 55.2 5.0 + 45.3 55.6 10.3 + 5 46.1 47.7 1.6 + 6 52.1 53.0 0.9 + 7 50.5 49.1 – 1.4 – 8 50.6 52.3 1.7 + 9 49.2 50.7 1.5 + 10 mittlere Differenz 2.29 √ z = 2.29/(3/ 10) = 2.41 ∈ K : −→ Die Reifensorten unterscheiden sich statistisch signifikant in der Länge des Bremsweges. 372 8.5 f Meistens: Nullhypothese Xi ∼ N hµ0, σ 2i , unabhängig, σ unbekannt. Nicht eine einzige Verteilung, sondern alle Normalverteilungen mit Erwartungswert µ0 . σ 2 : Stör-Parameter, nuisance parameter. σ durch den Schätzwert σ b = S ersetzen! X − µ0 T = √ =q S/ n X − µ0 P 1 n(n−1) (Xi − X)2 8.5 373 g S schwankt zufällig. T nicht normalverteilt. Verteilung von T hängt nur vom Stichprobenumfang n ab. m = n − 1 Freiheitsgrade”. ” Verteilung von T : grössere Varianz und langschwänziger. f hti 0.4 0 −3 N 15 7 3 1 0 3 t t-Test von Student. 8.5 √ 374 √ i S/ n : Schätzung der Standard-Abweichung σ0/ n des arithmetischen Mittels X , Standardfehler”, standard error se. ” j Beispiel Reifen: S 2 = (0.4−2.29)2 +(0.2−2.29)2 +. . . +(1.5−2.29)2 = 3.312 , 1 9 Standardfehler √ se = 3.31/ 10 = 1.048 , t = 2.29/1.048 = 2.18 . m = 10 − 1 . Krit.Wert 2.26 > |t| . H0 nicht verworfen! Einseitiger Test: Kritischer Wert 1.83. Signifikant! Interpretation? 8.5 375 k Vorzeichen-Test (oder Zeichen-Test). Testgrösse = Anzahl Beobachtungen grösser als µ0 = Anzahl positive Vorzeichen von Xi − µ0 . l H0 : Xi ∼ F 0 mit Median µ0 , unabhängig. HA : Xi ∼ F mit Median µ ; (a) µ > µ0 , (b) µ < µ0 , (c) µ 6= µ0 . U : U = Anzahl {i | Xi > µ0} F0hU i : P0hXi > µ0i = 1/2 , K: U ∼ Bhn, 1/2i . Tabelle! m Beispiel Reifen: 8 positive Vorzeichen von n = 10 . Tabelle: c0 = 1 , c1 = n − c0 = 9 . Nullhypothese durch den Vorzeichentest nicht abgelehnt. 376 8.5 o Keine Normalverteilung vorausgesetzt! Aber: Information verschenkt”. ” p Rangsummen-Test von Wilcoxon für gepaarte Stichproben oder Vorzeichen-Rangsummen-Test (signed rank test, one-sample Wilcoxon test). Xi ∼ F , unabhängig, F symmetrisch bez. (b) µ < µ0 ; (c) µ 6= µ0 . HA : Xi ∼ F 0 , unabh., F 0 stetig und symmetrisch bez. µ0 H0 : (a) µ > µ0 ; U : 377 Nach folgendem Rezept zu bilden: 1. Bilde Xi0 = Xi − µ0 , streiche die negativen Vorzeichen, bilde die Ränge . Ri D E Ri = rank |Xi0| |X10 |, |X20 |, . . . , |Xn0 | . Beispiel Reifen: µ0 = 0 , Xi − µ0 Differenz der Bremswege. Ränge Ri : 2, 1, 8, 9, 10, 6, 3, 4, 7, 5. 2. Summiere die Ri , für die Xi − µ0 > 0 Beispiel: 2+8+9+10+6+3+7+5=50. Sei Vi = 1 , falls Xi − µ0 > 0 ist, Vi = 0 sonst. U+ = Pn i=1 Vi Ri . Beispiel: u+ = 1 · 2 + 0 · 1 + 1 · 8 + 1 · 9 + 1 · 10 + 1 · 6 + 1 · 3 + 0 · 4 + 1 · 7 + 1 · 5 = 50 . Pn Pn + − U − = i=1 (1 − V i )Ri . U + U = i=1 Ri = n(n + 1)/2 . 378 F0hU i : Verteilung von U + oder U − hängt nicht von der Verteilung F ab (solange sie stetig ist). K: (a) Bis n = 30 aus Tabelle: c aus der Zeile c , einseitig”; ” K = {U + ≥ n(n + 1)/2 − c} = {U − ≤ c} ; (b) (c) c aus der Zeile c , einseitig”; K = {U + ≤ c} ; ” c0 aus der Zeile c0 , zweiseitig”; ” K = {U + ≤ c0} ∪ {U + ≥ n(n + 1)/2 − c0} = {minhU + , U −i ≤ c0} . Für grössere n : Approximation durch die Normalvert. n c, einseitig c0, zweiseitig n c, einseitig c0, zweiseitig n c, einseitig c0, zweiseitig 1 11 13 10 21 58 67 2 12 17 13 22 65 75 3 13 21 17 23 73 83 379 4 5 6 7 8 9 10 0 2 3 5 8 10 0 2 3 5 8 14 15 16 17 18 19 20 25 30 35 41 47 53 60 21 25 29 34 40 46 53 24 25 26 27 28 29 30 81 89 98 107 116 126 137 91 100 110 119 130 140 151 380 Beispiel Reifen: u+ = 50 , u− = 5 . Tabellenwert c0 = 8 , n(n + 1)/2 − c0 = 47 < u+ ( u− ≤ 8 ). Nullhypothese verworfen. U ist asymptotisch normalverteilt. n(n + 1) n(n + 1)(2n + 1) , varhU + i = EhU + i = 4 24 U + − n(n + 1)/4 U + − EhU + i p ≈∼ N h0, 1i =p Z+ = varhU + i n(n + 1)(2n + 1)/24 Verwerfungsbereich (zweiseitig): |Z +| ≥ 1.96 . 8.5 381 q Keine ( Bindungen”), ties) oder Nullen! ” Nullen (Xi = µ0) weglassen. (Vert. von T = bedingte Vert., gegeben die Anzahl Nullen). Bindungen: Ränge aufteilen. Asymptot. Näherung mit korrig. Varianz. Herleitung der Verteilung von U + : Wie verteilen sich die Vorzeichen auf die Ränge, wenn H0 gilt? |xi0 | 0.2 0.4 0.9 1.4 1.5 1.6 1.7 3.1 5.0 10.3 Rangh|xi0 |i 1 2 3 4 5 6 7 8 9 10 Vorzhxi0 i – + + – + + + + + + vi 0 1 1 0 1 1 1 1 1 1 3. Zeile zufällig, Bernoulli-vert. Jede Folge von 10 Vorzeichen hat gleiche Wahrscheinlichkeit 1/210 . −→ Verteilung von U + . 8.5 382 r Test-Statistiken, deren Verteilung nicht von einem konkreten parametrischen Modell für die Beobachtungen abhängt, und die entsprechenden Tests nennt man nicht-parametrisch (oder verteilungsfrei). Rangtest. Genaueres, Allgemeineres unter den Stichworten Randomisierungs-Tests oder Permutations-Tests. s Wilcoxon-Test nützt absolute Grösse der positiven gegenüber den negativen Xi − µ0 aus. Nullhypothese ist schärfer” als beim Vorzeichnetest: ” Es wird Symmetrie vorausgesetzt. Für Differenzen der Paare bei verbundenen Stichpr. naheliegend. t Welchen Test wählen? 8.6 383 Interpretation von Testergebnissen a Verwerfung der Nullhypothese. Interpretation? (1) (2) Ein Effekt ist nachgewiesen, eine Alternative” ist richtig, ” Nullhypothese auf andere Weise verletzt: Xi sind nicht unabhängig, • Daten enthalten systematischen Fehler, • • (3) nicht normalverteilt (beim t-Test), nicht symmetrisch verteilt (beim Rangsummen-Test), nicht alle gleich verteilt medhXii versch. beim Vorz.t. , es ist zufällig das unwahrscheinl. Ereignis K eingetreten. 384 (3) ist unvermeidbar. W. durch Signifikanzniveau kontrolliert. Man möchte (2) vermeiden, um (1) schliessen zu können. Aber wie? b (A) Xi ∼ N hµ, σ02i , σ02 bekannt → z-Test. Xi ∼ F symmetrisch um µ , sonst bel. → Rangsummen- (C) Xi ∼ N hµ, σ02i , σ02 unbekannt → t-Test. (B) Test. (D) Xi ∼ F i mit Median µ , sonst beliebig → Vorzeichen-Test. Unabhängigkeit der Xi . 8.6 385 c • Annahme, dass die Nullhypothese oder eine Alternative gilt”, ” ist Voraussetzung für die Anwendung des Tests. d • Gesamte Nullhypothese führt zu statistischem Widerspruch”. ” Abweichungen von den anderen Annahmen wegdiskutieren (soweit möglich überprüfen). e Tests verwenden, die möglichst wenige Voraussetzungen brauchen! Also immer Rangsummen-Test statt t- oder z-Test, immer Vorzeichen-Test statt Rangsummen-Test. 8.6 386 f Nein! Information ausnützen. Macht = W. für Fehler 2. Art. Die allzu grosszügige Lockerung der Voraussetzungen bezahlt man mit einem Verlust an Macht. g Konkrete Empfehlung für das Testen eines Lageparameters: sonst Vorzeichen-Test durchführen; • Rangsummen-Test von Wilcoxon anwenden, falls Verteilung symmetrisch ist wegen – theoretischen überlegungen (z.B. Differenzen), – empirischen Resultaten in grossen Datensätzen, – Vorwissen (frühere Studien mit ähnlichen Daten); • • 387 t-Test (und z-Test) vermeiden. Gewinn an Macht für normalverteilte Beob. minim. Wenn nicht genau normalvert., hat der Rangsummen-Test meistens grössere Macht als der t-Test (Ausnahme: Sehr kleine Stichproben). 8.7 388 Der P-Wert f hti P-Wert α = 5% t∗ c0 t c Signifikanz: Test-Statistik rechts von c0 ( ∈ K ) ⇐⇒ P-Wert kleiner als 5% – und umgekehrt. P-Wert: verfeinertes Mass der Signifikanz”. ” P = 6% : knapp nicht signifikant, Nachdenken erlaubt”. ” P = 74% : kein Hinweis auf Abweichung von der Nullhypothese. 389 8.7 d Literatur, ältere Konvention: P > 0.05 0.05 ≥ P > 0.01 0.01 ≥ P > 0.001 0.001 ≥ P z = 2.63∗∗ . nicht signifikant schwach signifikant stark signifikant sehr stark signifikant (n.s.) * ** *** z = 1.46 (n.s.). 8.7 390 e Hinweise: P-Wert und Wahrscheinlichkeit! Die Wahrscheinlichkeit für die Nullhypothese ist 10%.” ” BITTE NICHT! Die Irrtums-Wahrscheinlichkeit ist 3%.”(auch nicht.) ” • P-Wert aus verschiedenen Tests ?! • Achtung: Wegen Faulheit der Programmierer oft unexakte Tests! (Asymptotische Näherung auch bei kleinen Stichproben!) • Mit P-Wert kann man einfacher entscheiden als mit t . Computer muss mehr arbeiten. • P-Wert = transformierte Test-Statistik mit uniformer Vert. • • 391 Bei diskret vert. T ist der P-Wert auch diskret verteilt. F (X) F (P W ) 0 0 1 1 0 10 0 x 1 t 8.8 392 Vergleich von zwei quantitativen Stichproben a Einige Fragestellungen: Führt Düngersorte A zu höherem Ertrag als Dünger B? • Unterscheiden sich Schnecken auf Mager- & Fettwiesen? • Haben Raucher und Nichtraucher unterschiedl. Blutdruck? • Unterscheiden sich Puppengewichte von Fliegen (der gl. Art), die sich in gleich grossen Tieren verschiedener Wirtsarten entwickeln? • Je eine Stichprobe aus zwei verschiedenen Grundgesamtheiten. Zielgrössse Y messen. 393 8.8 b Unterscheidung von gepaarten Stichproben: Stichprobenumfänge n1 und n2 können für unabh. Stichproben verschieden sein; bei gepaarten Stichproben immer gleich gross. 8.8 394 Y2,1, Y2,2, . . . , Y2,n2 d Modell: Y1,1, Y1,2, . . . , Y1,n1 Y1,i ∼ F 1 , i = 1, 2, . . . , n1; Y2,i ∼ F 2 , i = 1, 2, . . . , n2; Y1,1, Y1,2, . . . , Y1,n1 , Y2,1, . . . , Y2,n2 H0 : alle unabhängig. F 1 = F 2 . Alle Y haben gleiche Verteilung. HA : F 1 und F 2 unterscheiden sich durch eine Verschiebung δ : F2hxi = F1hx − δi Speziell: Y1,i ∼ N hµ, σ 2i Y2,i ∼ N hµ + δ, σ 2i . δ interessierender Parameter, µ, σ Stör-Parameter. e δb = Y 2,· −Y 1,· = (Y2,1 +. . . +Y2,n2 )/n2 −(Y1,1 +. . . +Y1,n1 )/n1 395 8.8 f Zwei-Stichproben-z-Test. Beispiel Mastochsen. 2 Futterarten vergleichen. Zielgrösse: mittlere wöchentliche Gewichtszunahme in 1 Monat. Erfahrung: Solche Gewichtszunahmen ≈∼ N h..., (σ0 = 1.8kg)2i . Einseitige Alternative. 8.8 g Y1,i ∼ N hµ1, σ02i; HA : Yk,i ∼ N hµ, σ02i H0 : einseitig: δ > 0 . U : 396 (i.i.d.) ; Y2,i ∼ N hµ1 + δ, σ02i U = Y 2,· − Y 1,· F0hU i : Y k,· ∼ N hµ, σ02/nk i , also U = Y 2,· − Y 1,· ∼ N 0, σ02 (1/n1 + 1/n2) Z = p K: Y 2,· −Y 1,· σ02(1/n1 + 1/n2) ∼ N h0, 1i einseitig: K = {Z ≥ 1.64} . 397 8.8 h Mastochsen: extensiv” 2.7 ” intensiv” 6.5 ” 2.7 5.4 1.1 8.1 3.0 3.5 1.9 0.5 3.0 3.8 3.8 6.8 3.8 4.9 0.3 9.5 1.9 6.2 1.9 4.1 y − y = 5.39kg − 2.37kg = 3.02kg 2,· 1,· p z = 3.02/ 1.82 · 2/11 = 3.93 > 1.64 . Nullhypothese (wuchtig) verworfen. (Sinn eines solchen Tests? Schätzproblem!) 8.8 398 i t-Test. Y1,i ∼ N hµ, σ 2i, Y2,i ∼ N hµ + δ, σ 2i, HA : Yk,i ∼ N hµ, σ 2i H0 : (i.i.d) δ 6= 0 (oder δ > 0 oder δ < 0 ), unabhängig. Man ersetzt in der standardisierten Statistik für den z-Test die Varianz σ02 durch eine Schätzung, 1 σ b2 = n1 + n 2 − 2 n1 X i=1 (Y1,i − Y 1,· )2 + n2 X (Y2,i − Y 2,· )2 i=1 ! . t-Verteilung mit n1 + n2 − 2 Freiheitsgraden. 8.8 399 j Test mit weniger Voraussetzungen! Rangsummen-Test von Wilcoxon, Mann und Whitney, U-Test F bel. Vert. Y1,i ∼ F 1, Y2,i ∼ F 2 , F2hxi = F1hx − δi , δ 6= 0 . HA : Yk,i ∼ F (i.i.d); H0 : U : 1. Bestimme Rang Rk,i bezügl. vereinigten Stichproben” P n1 P ” n2 (2) 2. U (1) = i=1 R = 1,i (oder U i=1 R2,i ) ( U (1) + U (2) = (n1 + n2)(n1 + n2 + 1)/2.) T (k) = U (k) − nk (nk + 1)/2 ( T (1) + T (2) = n1n2 .) Zweiseitige Fragestellung: T = minhT (1), T (2)i . F0hU i : Verteilung von T (k) hängt nur von n1, n2 ab. Grosse n1, n2 : Asymptotische Näherung. K: Tabelle. n1 1 2 3 4 5 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 – – – – – – – – – – – – – – – – – – – – – – – – – – – 0 0 0 0 1 1 1 1 1 2 2 2 2 – – – – 0 1 1 2 2 3 3 4 4 5 5 6 6 7 7 8 – – – 0 1 2 3 4 4 5 6 7 8 9 10 11 11 12 13 14 – – 0 1 2 3 5 6 7 8 9 11 12 13 14 15 17 18 19 20 400 n2 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 – – 1 2 3 5 6 8 10 11 13 14 16 17 19 21 22 24 25 27 – – 1 3 5 6 8 10 12 14 16 18 20 22 24 26 28 30 32 34 – 0 2 4 6 8 10 13 15 17 19 22 24 26 29 31 34 36 38 41 – 0 2 4 7 10 12 15 17 20 23 26 28 31 34 37 39 42 45 48 – 0 3 5 8 11 14 17 20 23 26 29 33 36 39 42 45 48 52 55 – 0 3 6 9 13 16 19 23 26 30 33 37 40 44 47 51 55 58 62 – 1 4 7 11 14 18 22 26 29 33 37 41 45 49 53 57 61 65 69 – 1 4 8 12 16 20 24 28 33 37 41 45 50 54 59 63 67 72 76 – 1 5 9 13 17 22 26 31 36 40 45 50 55 59 64 69 74 78 83 – 1 5 10 14 19 24 29 34 39 44 49 54 59 64 70 75 80 85 90 – 1 6 11 15 21 26 31 37 42 47 53 59 64 70 75 81 86 92 98 – 2 6 11 17 22 28 34 39 45 51 57 63 69 75 81 87 93 99 105 – 2 7 12 18 24 30 36 42 48 55 61 67 74 80 86 93 99 106 112 – 2 7 13 19 25 32 38 45 52 58 65 72 78 85 92 99 106 113 119 – 2 8 14 20 27 34 41 48 55 62 69 76 83 90 98 105 112 119 127 401 8.8 k Beispiel Mastochsen. Daten·10 ext. 3 11 19 19 19 27 27 30 30 38 38 int. 5 35 38 41 49 54 62 65 68 81 95 P Ränge ext. 1 3 5 5 5 7.5 7.5 9.5 9.5 13 13 79 int. 2 11 13 15 16 17 18 19 20 21 22 174 u(1) = 79 und u(2) = 174 . (Kontrolle: u(1) +u(2) = 22·23/2 .) t(1) = 79 − 11 · 12/2 = 13, t(2) = 174 − 11 · 12/2 = 108 , t = minht(1), t(2)i = 13 . K = {T ≤ 30} . Nullhypothese wird verworfen. 402 8.8 m Vergleich der Streuungen n Grafischer Vergleich mit box-plots. Unterschiede zwischen den Medianen von 2 Gruppen signifikant? Kerben. Es soll gelten: Wenn sich die Kerben von zwei Kisten nicht überschneiden, dann ist der Unterschied zwischen den Gruppen signifikant. −→ Notched box plots”, gekerbte Kisten-Diagramme. ” (Testregel nicht nach dem üblichen Schema!) 0 20 60 Zuwachs 40 80 Behandlung 1 2 403 8.9 404 Macht a Bisher: H0 vorausgesetzt. Wahrscheinlichkeiten nur unter dieser Voraussetzung berechnet. P (0) Verwerfen von H0 = α Jetzt: Alternative voraussetzen. Fehler: H0 nicht verwerfen. = Fehler 2. Art Wahrscheinlichkeit berechnen! Berechnung von Wahrscheinlichkeiten setzt genau spezifizierte Hypothese voraus! P (A)hT 6∈ Ki = 1 − P (A)hT ∈ Ki = β (A). 405 1 − β (A) = W. der richtigen Entscheidung = Macht ” soll möglichst hoch sein. (Aufgepasst: In manchen Büchern wird die Macht mit β bezeichnet.) b K ist der Verwerfungsbereich, hergeleitet aus der Verteilung der Test-Statistik unter der Nullhypothese Der Test (die Entscheidungsregel) bleibt. 406 8.9 c Beispiel Mastochsen: 2 Fütterungsarten vergleichen. Wahrer” Unterschied δ = 1.0 kg/Woche (Vermutung). ” Wie gross ist die Wahrscheinlichkeit, dass dieser Effekt, falls er richtig ist, sich durch den Versuch statistisch nachweisen lässt? ... d.h., dass die Testregel zur Verwerfung von H0 führt? 407 Entscheidungsregel: H0 verwerfen, falls Z > 1.64 . −→ U = Z · p 1.82 · 2/11 = Z · 0.77 , also Z > 1.64 −→ U > 1.64 · 0.77 = 1.26 . Vt. von T unter HA mit δ = 1.0 kg ist U = Y 2· − Y 1· ∼ N δ, σ02 1 1 + n1 n2 = N h1.0, 0.772 i Macht 1 − β (A) = P (A)hU > 1.26i =1−Φ 1.26−1 0.77 = 1 − Φh0.34i = 0.37 −→ Wahrsch. eines erfolgreichen Ausgangs” des Versuchs ” (statistischer Beweis” eines Effekts gelungen) ” = 37%. (!) 408 Verteilung der Test-Statistik U ... ... unter H0 unter HA f Macht 1 − β α = 5% P PP 0 P 1 - - u Verwerfungsbereich δ 409 8.9 d Oft keine Vermutung betreffend Effekt δ . −→ Macht als Funktion von δ . n1 = n 2 = n . H0 verworfen, wenn U > 1.64 · σ0 Unter HA gilt U ∼ N δ, σ02 2/n D E p 1 − β (A) = P (A) = 1−Φ = 1−Φ U > 1.64 · σ0 * p 1.64 · σ0 σ0 p 2/n 2/n − δ 2/n δ p 1.64 − n/2 σ0 p 2/n + . 410 Die Macht nimmt zu mit standardisiertem Effekt” δ/σ0 ” und Stichprobenumfang n . 1 1−β 0.8 n1 = n 2 =40 n1 = n2 = 11 0.37 0 0 δ/σ0 1 Macht 1 − β (A) als Funktion von δ heisst auch Gütefunktion. β (A) , als Funktion von δ heisst auch Operations-Charakteristik. 411 8.9 e Wie gross muss n sein, damit bei δ = 1.0 und σ0 = 1.8 1 − β (A) = 0.80 wird? 1.0 p 1 − Φ 1.64 − n/2 = 0.8 =⇒ 1.8 p 1.64 − 0.56 n/2 = −0.84 2 n=2· 2.48 0.56 = 39.2 Es braucht (etwa) 40 Tiere pro Gruppe. −→ Versuchsplanung, Berechnung des Stichprobenumfangs. 412 8.9 f* Man muss σ0 ungefähr kennen und δ festlegen. Vorversuch? Nichtparametrischer Test? g* Macht (-funktion) als Qualitätskriterium zur Wahl eines Tests. Optimieren! −→ Mathematische Statistik. Optimale Schätzungen −→ Testgrössen für optimale Tests. 8.11 413 Sinn und Unsinn statistischer Tests a Fachzeitschriften: Man darf nur über Effekte schreiben, die statistisch auf dem 5%-Niveau signifikant sind. −→ Test dient als Filter gegen wilde Spekulationen. Perversion: Untersuche Fragen, für die ein signifikantes Ergebnis erwartet werden kann – auch uninteressante ... Statistiker unterstützen diesen Unsinn nicht. Relevanz wichtiger als Signifikanz! 8.11 414 b Unterschied zwischen (statistischer) Signifikanz” und ” (praktischer) Relevanz” ” Zu kleine und zu grosse Stichproben! Mit grossen Stichproben kann man Bagatelleffekte, die eigentlich niemanden interessieren, stolz als statistisch signifikant” nachweisen und publizieren. ” c* Konsequenz? Statistische Tests sind unsinnig! −→ Man müsste H0 : θ ≤ Schwellenwert γ prüfen! Regel für Entscheidung zwischen H0 : θ ≤ γ und H1 : θ > γ . 415 8.11 d Wieso Tests ausführlich behandeln? Grundlage für Vertrauensintervall. • Grundlage für das Verständnis der Beziehung zwischen Wahrscheinlichkeits-Modellen und empirischen Daten. • Filter gegen wilde Spekulationen • 416 9. Vertrauensintervalle 9.3 Vertrauensintervalle für Lageparameter Grundfrage? a Jedem Test für µ einer Stichprobe entspricht eine Regel zur Konstruktion von Vertrauensintervallen. z-Test. Xi ∼ N hµ, σ02i , σ02 bekannt. Vertrauensintervall für µ ? 417 H0 : µ = µ 0 . −→ Annahmebereich √ |X − µ0| (σ0/ n) ≤ 1.96 = √ √ X − µ0 ≥ −1.96 σ0/ n und X − µ0 ≤ 1.96 σ0/ n √ √ V0 = X − 1.96 σ0/ n respektive V1 = X + 1.96 σ0/ n √ X ± 1.96 σ0/ n b Beispiel Reifen √ v0 = 2.29 − 1.96 · 3/ 10 = 2.29 − 1.86 = 0.43 v1 = 2.29 + 1.86 = 4.15 . Vertrauensintervall für die Differenz des Bremsweges: (0.43, 4.15) = 2.29 ± 1.86 . Enthält 0 nicht. Nullhypothese µ0 = 0 verworfen. 418 9.3 c t-Test √ (tn−1) V0 = X − q0.975 · S/ n , √ (tn−1 ) V1 = X + q0.975 · S/ n . S 2 : empirische Varianz, (t ) q0.975 : 0.975-Quantil der t-Vert. mit n − 1 Freiheitsgraden (kritische Grenze für den zweiseitigen t-Test). n−1 d Vertrauensintervall, das dem Wilcoxon-Test entspricht: Besser, aber kaum in Programmen anzutreffen. 419 9.3 e Vorzeichentest Annahmebereich {c < Anzahl{ i | Xi > µ0} < n − c} = {c/n < Anzahl{ i | Xi ≤ µ0}/n < 1 − c/n} = {c/n < Fb hµ0i < 1 − c/n} . Fb : empirische Verteilungsfunktion. Untere Grenze: c/n = Fbhµ0i =⇒ µ0 = (c/n) -Quantil qbc/n . (qbγ , qb1−γ ) mit γ = c/n . Fb 420 6 1 − c/n 6 u Annahmebereich für µ0 ? c/n ? 0 -? V0 µ0 = qb0.2 V1 = qb0.8 4 - x, µ 421 9.3 f Lage-Differenz δ zwischen zwei unabhängigen Stichproben: Vertrauensintervalle aus den in 8.8 besprochenen Tests. g Welches Vertrauensintervall wählen? 9.5 422 Vertrauens- und andere Intervalle a Vertrauensintervall: zufälliges Intervall, abhängig von den Daten. Enthält, wenn man von einem Modell ausgeht, den wahren Parameterwert mit Wahrscheinlichkeit 95%. b Annahmebereich: festes Intervall, abhängig vom zu testenden Parameterwert. Enthält den Wert der Test-Statistik mit W. 95%, falls die Nullhypothese richtig ist. 423 9.5 c Streubereich: Intervall, in dem die meisten Daten enthalten sind. Kiste im Box-Plot enthält 50% der Daten. X ± 2σ b : enthält ungefähr 95% der Daten. e Kerbenbereich in gekerbten Kisten-Diagrammen: ermöglicht einen approximativen Test für den Unterschied zwischen zwei unabhängigen Stichproben. Genäherte Vertrauensintervalle für die Mediane, für Vertrauenskoeffizienten ≈ 90% . 9.5 424 g Der Annahmebereich und das Vertrauensintervall werden sehr oft verwechselt. Annahmebereich = {µ0 ± c · se} Vertrauensintervall = {X ± c · se} µ0 @ @ @ @ @ Vertrauensintervall zu x v1 v0 I @ @ @ @ @ @ @ R @ @ @ @ @ - µ @ @ @ @ @ @ - @ x (Annahmebereich zu v1) Annahmebereich zu µ0 x 425 9.5 h Dualität. Das Vertrauensintervall umfasst die Parameterwerte θ , die mit einem bestimmten Schätzwert θb verträglich sind. • Der Annahmebereich umfasst die Schätzwerte θb, die mit einem bestimmten θ = θ0 verträglich sind. • vgl. Diagramm für die Binomialverteilung. 426 π 0.2 0.2 0.4 0.4 0.6 0.6 0.8 0.8 1 1 0 0/20 5/20 10/20 15/20 20/20 0 X/n Annahmebereich nicht symmetrisch um θ0 Vertrauensintervall nicht symmetrisch um θb. 9.6 427 Schätzungen, Tests und Vertrauensintervalle a Vertrauensintervalle sind nützlicher als Punktschätzungen. Vertrauensintervall enthält Punktschätzung. Punktschätzung allein sagt nichts über ihre Genauigkeit, und eine Zahl ohne Genauigkeitsangabe sagt nichts aus! c Vertrauensintervalle sind nützlicher als Tests e Vertrauensintervall oder P-Wert? Beide zeigen, wie signifikant” ein Effekt ist. ” 9.6 428 f Achtung: Relevanz vs. Signifikanz! nicht wichtig signifikant, möglicherweise wichtig signifikant, wichtig signifikant und nicht signifikant, nicht wichtig nicht signifikant, möglicherweise wichtig 0 δ Effekt relevant keiner 429 b Punktschätzungen sind Hilfsmittel: Daten beschreiben, Dichte an Histogramm anpassen. • als Test-Statistik zur Konstruktion von Tests und dadurch von Vertrauensintervallen; • d Tests als Nachweis eines Effekts, ohne Grösse des Effekts zu quantifizieren • für Hypothesen, die nicht einen Parameter festlegen. Anpassungstests, Test auf Unabhängigkeit •