Wahrscheinlichkeit. ♣ Ein Test diagnostiziert − Kranke zu 99% richtig − Gesunde zu 90% richtig − 5% der Bevölkerung ist krank ? Wie wahrscheinlich ist es, dass jemand krank ist, wenn der Test dies diagnostiziert? → Formulierung mit Wahrscheinlichkeiten Versuch: Zufälliges Ziehen aus der Population Mögliche Ereignisse − K+ : Proband ist krank − K− : Proband ist gesund − T+ : Test ist positiv − T− : Test ist negativ ( → „krank“ ) Ereignisse treten ein oder treten nicht ein ♦ P: Wahrscheinlichkeit P(K + ) = .05 4 1.1 .05 : ‚ wissenschaftlich ‘ 5% : ‚ informell ‘ EF16 1 P(K + ) = .05 → P (K − ) = .95 ♦ Gegenereignisse • Wahrscheinlichkeiten von Gegenereignissen addieren sich zu 1 P (T + |K + ) = .99 P (T − |K − ) = .9 ♦ Bedingte Wahrscheinlichkeiten B ‚ Bedingung ‘ nur ‚ logisch ‘ − − nicht ‚ zeitlich ‘ nicht ‚ kausal ‘ → P (T − |K + ) = .01 → P (T + |K − ) = .1 4 Gegenereignisse ? P (K + |T + ) = ? 1.1 EF16 2 → Bildung neuer Ereignisse → Allgemein : A , B : Ereignisse ♦ A ∩ B : Beide Ereignisse ( A und B ) treten ein B A∩B = B ∩A ? K + ∩ T + : Proband ist krank und Test positiv ? P ( K+ ∩ T + ) = ? Anteil der Kranken : .05 ( P (K + ) ) Davon : Anteil positiver Tests : .99 ( P (T + |K + ) ) → Anteil der Kranken mit positivem Test : (.05) · (.99) = .0495 → Formal : P (T + ∩ K + ) = P (K + ) · P (T + |K + ) • Allgemein : P(A ∩ B) = P(A|B) P (B) P(A ∩ B) P(B) → Folgerung : 4 Formal eigentlich umgekehrt : Zweite Formel ist Definition, erste dann Folgerung → P (T + ∩ K − ) = P (T + |K − ) P (K − ) = (.1)(.95) = .095 1.1 EF16 P(A|B) = 3 → Bildung neuer Ereignisse → Allgemein : A , B : Ereignisse ♦ A ∪ B : Mindestens ein Ereigniss ( A oder B ) tritt ein B A∪B = B ∪A B Spezieller Gebrauch von ‚ oder ‘ ( ‚ Nicht ausschließend ‘ ) → Wahrscheinlichkeiten von Vereinigungen − Nur für Spezialfall A ∩ B = ∅ ♦ ∅ : Leere Menge ↔ Unmögliches Ereignis B A∩B = ∅ heißt A und B können nicht gemeinsam eintreten ? Beispiel : K + ∩ K − = ∅ • Ist A ∩ B = ∅ , so P (A ∪ B) = P(A) + P(B) 1.1 EF16 4 ? P (T + ) = ? T + = (T + ∩ K + ) ∪ (T + ∩ K − ) (T + ∩ K + ) ∩ (T + ∩ K − ) = ∅ → P(T + ) = P (T + ∩ K + ) + P (T + ∩ K − ) → P(T + ) = .0495 + .095 = .1445 ? → → P (K + |T + ) = ? P (K + ∩ T + ) P (K |T ) = P (T + ) + + P (K + |T + ) = .0495 = .342561 .1445 4 Hier reicht .34 oder .343 1.1 EF16 5 ♦ Ereignisse B1 , . . . , BJ heißen (paarweise) disjunkt, wenn − nie zwei Bj gleichzeitig eintreten können ♦ Ereignisse B1 , . . . , BJ heißen erschöpfend, wenn − immer mindestens ein Bj eintritt ? Beispiele für Ereignisse , die disjunkt und erschöpfend sind : − K + und K − , ebenso T + und T − Totale Wahrscheinlichkeit ♣ Voraussetzung : − B1 , . . . , BJ sind disjunkt und erschöpfend, alle P(Bj ) > 0 − A ist weiteres Ereignis • P(A) = J X P ( A | Bj ) P (Bj ) j=1 ? Beispiel : J = 2 , → 1.1 B1 : K + , B2 : K − , A : T+ P (T + ) = P (T + | K + ) P (K + ) + P (T + | K − ) P (K − ) EF16 6 → Formel von Bayes ♣ Voraussetzung : − B1 , . . . , BJ sind disjunkt und erschöpfend, alle P(Bj ) > 0 − A ist weiteres Ereignis, P (A) > 0 • Für alle k = 1, . . . , J gilt P ( Bk | A ) = P ( A | Bk ) P ( Bk ) J X P ( A | Bj ) P (Bj ) j=1 ? Beispiel : B1 : K + , + + P(K |T ) = 1.1 B2 : K − , A : T+ , k = 1 P (T + | K + ) P (K + ) P (T + | K + ) P (K + ) + P (T + | K − ) P (K − ) EF16 7 4 Terminologisches P ( B1 ), . . ., P ( BJ ) : Basisraten , a-priori-Wahrscheinlichkeiten P ( A | Bj ) : Übergangswahrscheinlichkeiten P ( Bk | A ) : a-posteriori-Wahrscheinlichkeiten B Bayes-Formel : Änderung der ‚ Wahrscheinlichkeiten ‘ durch ‚ Zusatzinformation ‘ → P ( Bk ) ? Im Beispiel : ? Konkret : 1.1 −→ P ( Bk | A ) P ( K+ ) −→ .05 −→ P ( K+ | T + ) .34 EF16 8 → Illustration ..................................................................................................................................................................................................................................................................................................................................................................... ........................ ... ... ... . .... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ..... ... ... ... ... ... ... ... ... .... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ..... ... ... ... ... ... ... ... ... .... ... ... ... ... ... ... ... ... ... ... ... ..... ... ... ... ... ... ... ... ... .... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ..... ... ... ... ... ... ... ... ... .... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ..... ... ... ... ... ... ... ... ... .... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ..... ... ... ... ... ... ... ... ... .... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ..... ... ... ... ... ... ... ... ... ... ....................................................................................................................................................................................................................................................................................................................................................... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... .... ... ... ......................................................................................................................................................................................................................................................................................................................................................................... T+ K− K+ ............................................. ... .... ... .... ... .... ... .... ... .... ... .... ...+.....................−................. ......................................................................................................................................................... ... .... .... .... ... ... .... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ..... ... ... ... ... ... ... ... ... ... ... .... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ..... ... ... ... ... ... ... .... ... ... ... ... ... ... ... ... ... ... ... ... ............................................................................................................................................. .. ... ... ... ... ... .................................................................................................................................................. K T− ............................................. ... .... ... .... ... T − .. + .. T .. ... .... ... .... ................................................................................... ......................................................................................................................................................... ... .... .... .... ... ... ... ... .... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ..... ... ... ... ... ... ... .... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ..... ... ... ... ... ... ... ... ... ... ... .... ... ... ... ... ... ... ... ... ... ... ............................................................................................................................................. .. ... ... ... ... ... .................................................................................................................................................. K → Flächenanalogie 4 Allgemeiner Maßbegriff umfasst ebenso Flächen- wie W-Maße 1.1 EF16 9 → Fehlerwahrscheinlichkeit − Diagnoseregel 1 ( R1 ) : T − → K− T + → K+ − ‚ Fehler ‘ : ( T + ∩ K − ) ∪ ( T − ∩ K + ) B Zwei ‚ Typen ‘ von Fehlern ( T + ∩ K− ) ∩ ( T − ∩ K+ ) = ∅ → P ( ‚ Fehler ‘ ) = P ( T + ∩ K − ) + P ( T − ∩ K + ) = .095 = .0955 + .0005 → Illustration .... T+ ................................................................................................................................................................................................................................... ... .... .... .... ... ... ... ... .... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ..... ... ... ... ... ... ... .... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ..... ... ... ... ... ... ... ... ... ... ... .... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ..... ... ... ... ... ... ... .... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ..... ... ... .. ... ... ... ................................................................................................................................................................................................................ ... ... ... ... ... ... .. ... ... ............................................................................................................................................................................................................................. T− ............................................................. .......................................................... K+ 1.1 K− EF16 10 → Alternative Regel − Diagnoseregel 2 ( R2 ) : → P ( ‚ Fehler ‘ ) T + → K− = P ( K+ ) T − → K− = .05 ? R2 besser als R1 ? B Nur bei gleicher ‚ Gewichtung ‘ der Fehlertypen ! Kennwerte immer im Zusammenhang sehen ! → Weitere Kennwerte : − P ( K − |T + ) = .66 − P ( K − |T − ) = .9994 1.1 ( P ( K + |T + ) = .34 ) P ( K + |T − ) = .0006 EF16 11 → Alternativszenario ♣ Jetzt : P ( K + ) = .7 − P ( K + |T + ) = .96 P ( K − |T + ) = .04 − P ( K − |T − ) = .97 P ( K + |T − ) = .03 − P ( ‚ Fehler ‘ ) = .037 → Vergleich : T + ......................................................................................................................................................... ... ... ... ... ... ... .... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ..... ... ... ... ... ... ... ... ... ... ... .... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ..... ... ... ... ... ... ... ... ... .... ... ... ... ... ... ... ... ... ... ... ... ... ............................................................................................................................................. ... ... ... ... ... ... ................................................................................................................................................... K+ T− T + ........................................................................................................................................................................................................................................................ .. .. ... ... .. ... ... ... ... .... ... ... ... ... ... ... . ... . ... .. ... . ... .. ... . ... ... .... ..... ... ... ... ... .... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ..... .. ... ... ... ... ... ... ... .... ... ... ... .. ... ... ... ... ... ... ... ... ............................................... ... ... ... .... .. ... ... .................................................................................................................................................. K− K+ T− K− → P(K + |T + ) in Abhängigkeit von P(K + ) 1 P(K + |T + ) .5 r ................................................................................................................................................................. ... ...... .................. ... .............. ... ........... ......... . . . . . .... . ..... . . . ... . . .... . . ... . . .... ... . . . .. . ... . . . ... ... . . ... ..... . .. ... . .. ... . .. .... . .. ... . .. ... . . ... . . . ... ... ... ... ..... ... ... .. ... ... .. .... ... ... ... ... ... ... ... ... ... ... ..... .... r 0 r 0 1.1 r .5 1 P(K + ) EF16 12 → Interpretation W : Wahrscheinlichkeit ♣ Wieder : P ( K + ) = .05 − Bei Herrn N.N. ist der Test positiv → Die W., dass Herr N.N. krank ist, ist .34 ? ? Einfaches Beispiel : Münzwurf Aussage A : Die W. für ‚ Zahl ‘ ist .5 Mögliche Äußerungen : 1. Beim Werfen einer idealen Münze gilt : A 2. Beim Werfen dieser Münze gilt : A 3. Gleich wird diese Münze geworfen. A 4. Gerade wurde die Münze geworfen. A ? Korrekt ? Sinnvoll ? 1.1 EF16 13 Äußerungen : 1. Beim Werfen einer idealen Münze gilt : A 2. Beim Werfen dieser Münze gilt : A 3. Gleich wird diese Münze geworfen. A 4. Gerade wurde die Münze geworfen. A → Kommentar : 1. Tautologie 2. Frage der Angemessenheit, nicht der Richtigkeit ( ? ) 3. ? 4. ????? ♠ Für uns : → ‚ Wahrscheinlichkeit ‘ bezieht sich auf ‚ abstrakte ‘ ‚ Ereignisse ‘ → Daher : 3. unsinnig, 4. erst recht → Keine ‚ subjektiven Wahrscheinlichkeiten ‘ 4 ‚ Subjektive Wahrscheinlichkeiten ‘ gibt es bei Bayesianern 1.1 EF16 14 → Zitat : Aus den axiomatischen Begründungen der Geometrie, der Algebra, der Topologie und anderer mathematischer Disziplinen weiß man, dass dort davon abgesehen wird, Begriffe wie Punkt und Gerade, Zahl, Umgebung, usw. inhaltlich zu definieren. Ähnlich hat es sich gezeigt, dass für einen Aufbau der W-Theorie eine inhaltliche Definition von Begriffen wie „Ereignis“ und „Wahrscheinlichkeit“ nicht erforderlich, ja zur Vermeidung logischer Schwierigkeiten und im Hinblick auf eine möglichst umfangreiche und leichte Anwendbarkeit der Theorie nicht einmal erstrebenswert ist. Wie in den genannten Disziplinen kommt es auch in der WTheorie nur auf die formalen Eigenschaften dieser Begriffe an. Heinz Bauer 1.1 EF16 15 Datenbeschreibung. ♣ Gegeben sind 20 Werte einer Variablen X − X : Fehleranzahl in Reaktionsexperiment − 5 Durchgänge pro Versuchsperson ( ‚ Vp ‘ ) − Anzahl der Vpn : n = 20 − Daten : 4, 2, 1, 2, 3, 1, 2, 3, 2, 2, 2, 3, 1, 2, 0, 4, 2, 2, 1, 2 xi : Wert von Vp i ? x5 = 3 X ist quantitativ X ist diskret B Leicht verschiedener Sprachgebrauch in der W-Theorie 1.2 ( Gegensatz : qualitativ ) ( Gegensatz : kontinuierlich ) EF16 16 → − Daten ordnen Daten : 4, 2, 1, 2, 3, 1, 2, 3, 2, 2, 2, 3, 1, 2, 0, 4, 2, 2, 1, 2 wj : mögliche Werte ( j = 1, . . . J ) ? Hier : J = 6 , nj : absolute Häufigkeit von wj ♦ hj := nj /n : relative Häufigkeit von wj → mögliche Werte : 0 , . . . , 5 Tabelle j 1 2 3 4 5 6 P 1.2 wj 0 1 2 3 4 5 nj 1 4 10 3 2 0 20 hj 0.05 0.20 0.50 0.15 0.10 0.00 1.00 EF16 17 → Graphische Darstellung wj 0 1 2 3 4 5 P → Absolute Häufigkeiten a.H. nj 1 4 10 3 2 0 20 hj 0.05 0.20 0.50 0.15 0.10 0.00 1.00 ( Balkendiagramm ) 10 8 6 4 2 0 0 1 2 3 4 5 X 0 1 2 3 4 5 X → Relative Häufigkeiten r.H. .5 .4 .3 .2 .1 .0 1.2 EF16 18 → Kennwerte MX n 1 X xi := n i=1 ♦ Mittelwert : 4 Kurz auch M , falls X aus Kontext klar ? ♦ 41 = 2.05 20 M = Hier : 2 SX Varianz : n 1 X := (xi − M )2 n i=1 ♦ Streuung, Standardabweichung : 4 SX := p Kurz auch S 2 , S , falls X aus Kontext klar S2 = 18.95 = .9475 20 ? Hier : • Alternativ : ? Hier : • Varianz ist Null ⇐⇒ Daten sind konstant 1.2 2 SX S = √ .9475 = .9734 2 SX = MX 2 − ( MX )2 2 SX = 5.15 − 2.052 = .9475 EF16 19 → Rechentabelle i xi xi − M (xi − M )2 x2i 1 4 1.95 3.8025 16 2 2 -0.05 0.0025 4 3 1 -1.05 1.1025 1 -0.05 0.0025 4 4 2 5 3 0.95 0.9025 9 -1.05 1.1025 1 6 1 7 2 -0.05 0.0025 4 0.95 0.9025 9 8 3 9 2 -0.05 0.0025 4 10 2 -0.05 0.0025 4 -0.05 0.0025 4 11 2 12 3 0.95 0.9025 9 -1.05 1.1025 1 13 1 14 2 -0.05 0.0025 4 15 0 -2.05 4.2025 0 16 4 1.95 3.8025 16 -0.05 0.0025 4 17 2 18 2 -0.05 0.0025 4 19 1 -1.05 1.1025 1 20 2 -0.05 0.0025 4 41 0.00 18.9500 103 1.2 EF16 20 → Graphische Darstellung Mittelwert mit Streuungsbalken S S ... ... .. .. .................................................................................................................................................................................................................... .... .... . . r M → Mit Balkendiagramm .5 r.H. .4 .3 .2 .1 .0 ... ... ... . ......................................................................... ... ... ... ... r 1.2 X EF16 21 → Beispiele zur Streuung .5 r.H. .4 .3 .2 .1 .0 r .. ... ........................................ . . X .5 r.H. .4 .3 .2 .1 .0 r X r X .. ... .................................................................. . . .5 r.H. .4 .3 .2 .1 .0 .. ... .............................................................................................. . . .5 r.H. .4 .3 .2 .1 .0 r ... .. .................................................................................... . . 1.2 X EF16 22 → Alternative Berechnung des Mittelwerts Daten : 4, 2, 1, 2, 3, 1, 2, 3, 2, 2, 2, 3, 1, 2, 0, 4, 2, 2, 1, 2 M = 1 (4+2+1+2+3+1+2+3+2+2+2+3+1+2+0+4+2+2+1+2) 20 Alternativ : M = 1 (0+1+1+1+1+2+2+2+2+2+2+2+2+2+2+3+3+3+4+4) 20 Zusammenfassen : 1 (1 · 0 + 4 · 1 + 10 · 2 + 3 · 3 + 2 · 4) 20 1 4 10 3 2 = ·0 + ·1 + ·2 + ·3 + ·4 20 20 20 20 20 M = = 0.00 + 0.20 + 1.00 + 0.45 + 0.40 = 2.05 → Allgemein : J J J X X nj 1 X M = nj wj = wj = hj wj n j=1 n j=1 j=1 • M = J X wj hj j=1 1.2 EF16 23 Ebenso : Varianz , Mittelwert von X 2 . . . → Rechentabelle wj 0 1 2 3 4 5 hj wj hj wj − M (wj − M )hj (wj − M )2 (wj − M )2 hj wj2 wj2 hj 0.05 0.00 -2.05 -0.1025 4.2025 0.210125 0 0.00 0.20 0.20 -1.05 -0.2100 1.1025 0.220500 1 0.20 0.50 1.00 -0.05 -0.0250 0.0025 0.001250 4 2.00 0.15 0.45 0.95 0.1425 0.9025 0.135375 9 1.35 0.10 0.40 1.95 0.1950 3.8025 0.380250 16 1.60 0.00 0.00 2.95 0.0000 8.7025 0.000000 25 0.00 1.00 2.05 0.0000 0.947500 5.15 ♦ Sind a1 , . . . , am Zahlen und g1 , . . . , gm nichtnegativ ( ≥ 0 ) P mit gi = 1 , so heißt m X ai gi i=1 auch gewichtetes Mittel der ai mit Gewichten gi ? Der Mittelwert ist gewichtetes Mittel der möglichen Werte − Gewichte sind die relativen Häufigkeiten ? Formel der totalen Wahrscheinlichkeit : P(A) = J X P ( A | Bj ) P (Bj ) j=1 − P ( A ) ist gewichtetes Mittel der P ( A | Bj ) − Gewichte sind die a-priori-Wahrscheinlichkeiten P (Bj ) 1.2 EF16 24 Erwartungswert. Typische Sprechweise : „ Die Fehlerzahl unter Alkoholeinfluss ist größer als die ohne Alkohol “ ? Was heißt „ Die Fehlerzahl unter Bedingung B “ ? Naheliegend : Durchschnittliche Fehlerzahl , Mittelwert ! Aber : Unterschiedliche Mittelwerte bei Replikationen ? Gegebene Daten und drei Replikationen : .5 r.H. .4 .3 .2 .1 .0 0 r .. ... ........................................ . . 5 .5 r.H. .4 .3 .2 .1 .0 X 0 M = 2.05 .5 r.H. .4 .3 .2 .1 .0 0 r ... .. ................................................... . . M = 2.45 1.3 r .. ... ................................................ . . 5 X 5 X M = 2.40 5 .5 r.H. .4 .3 .2 .1 .0 X 0 r ... .. ................................................... . . M = 2.20 EF16 25 Mittelwerte aus 100 Durchführungen : 2.05, 1.95, 2.30, 2.30, 2.25, 2.00, 2.20, 2.05, 2.10, 2.80, 2.40, 2.30, 2.10, 1.65, 1.90, 2.40, 2.95, 2.25, 2.25, 1.75, 2.45, 2.35, 2.20, 2.55, 2.00, 2.00, 1.80, 2.20, 2.30, 2.85, 2.20, 2.60, 2.50, 2.15, 1.60, 2.40, 2.50, 2.75, 2.00, 2.05, 2.45, 2.65, 2.50, 2.30, 2.30, 2.05, 2.20, 2.05, 2.40, 2.25, 2.70, 2.35, 2.50, 2.70, 2.75, 2.00, 2.10, 2.00, 2.50, 2.10, 1.75, 1.80, 2.40, 2.10, 2.30, 1.75, 2.30, 1.60, 2.10, 2.30, 2.10, 2.30, 2.45, 1.70, 2.55, 2.55, 2.30, 2.40, 1.90, 2.55, 2.05, 2.80, 1.95, 2.30, 1.80, 2.40, 2.00, 2.30, 2.10, 2.15, 2.15, 2.25, 2.30, 2.85, 2.40, 2.70, 2.40, 2.50, 2.40, 2.15 ? Zwischenproblem : Geeignete Zusammenfassung → Klassenbildung Klasse k ( 1.5 , 1.7 ] ( 1.7 , 1.9 ] ( 1.9 , 2.1 ] ( 2.1 , 2.3 ] ( 2.3 , 2.5 ] ( 2.5 , 2.7 ] ( 2.7 , 2.9 ] ( 2.9 , 3.1 ] nk hk 4 0.04 8 0.08 23 0.23 28 0.28 21 0.21 9 0.09 6 0.06 1 0.01 100 1.00 nk , hk : Absolute und relative Häufigkeit von Klasse k 1.3 EF16 26 4 Anmerkungen → Schreibweisen für Intervalle ( a , b ] := {x ∈ R | a < x ≤ b} ...............................u ............................................................................................................................................................................................................................................................................................. a b R Statt ( a , b ] auch ] a , b ] [ a , b ] := {x ∈ R | a ≤ x ≤ b} ..u.............................u ............................................................................................................................................................................................................................................................................................. a b R ( a , b ) = ] a , b [ := {x ∈ R | a < x < b} ............................... ............................................................................................................................................................................................................................................................................................. a b R [ a , b ) = [ a , b [ := {x ∈ R | a ≤ x < b} ..u............................. ............................................................................................................................................................................................................................................................................................. a b R [ a , ∞ ) := {x ∈ R | a ≤ x} ..u........................................................... ............................................................................................................................................................................................................................................................................................. a R Analog : (−∞ , b ) = (−∞ , b [ etc. 1.3 EF16 27 → Graphische Darstellung Klassifizierte Daten Klasse k ( 1.5 , 1.7 ] ( 1.7 , 1.9 ] ( 1.9 , 2.1 ] ( 2.1 , 2.3 ] ( 2.3 , 2.5 ] ( 2.5 , 2.7 ] ( 2.7 , 2.9 ] ( 2.9 , 3.1 ] nk hk 4 0.04 8 0.08 23 0.23 28 0.28 21 0.21 9 0.09 6 0.06 1 0.01 100 1.00 → Histogramm .5 r.H. .4 .3 ........... ... .... ... ... . . ............ .... . .... .... ............ ... ... ... ... ... ... ... .... ... ... ... ... ... ... ... ... ... ... ... .... ... ... ... ... ... ... ... ... ... .. ... ......... ........... .... ... .... .... ... ... ... ... ... .......... ... ... ... ... ... ... .... .......... ... ... ... ... ... .. ... ... ... ... ... ... ... .... ... ... ... ... ... ... ... ........... . . . . . . . . .2 .1 .0 0 1 2 3 4 5 M 4 Analog : Histogramm der absoluten Häufigkeiten 1.3 EF16 28 Histogramm .5 r.H. .4 .3 ........... .. .. ... .... .. .. ............ .... ... ... ........... ... ... ... ... ... ... ... .... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... .... ... ... ... ... ... ... ... ... . . . ........ ............. .... .... .... .... . . . . .... .... ... ... ... ............. . . .......... .... .... .... .... .... .... .. .. .. .. .. .. .. ... ... ... ... ... ... ... ... ......... .. .. .. .. .. .. .. .. .. .2 .1 .0 0 1 2 3 4 5 M B Geringere ‚ Streuung ‘ als bei Originaldaten 4 Extreme Werte ‚ neutralisieren sich ‘ beim Mitteln → Balkendiagramme - Histogramme − Wenige unterschiedliche Daten, auch qualitativ → Balkendiagramm − Viele unterschiedliche quantitative Daten → Histogramm B Nachteil : Informationsverlust durch Klassenbildung ? Mittelwert und Streuung nur noch ungefähr rekonstruierbar 1.3 EF16 29 Unterschiedliche Histogramme für die gleichen Daten r.H. .5 .4 .3 .2 .1 .0 .5 r.H. .4 .3 .2 .1 .0 r.H. ........ ... ... ......... .... .. .. ....... ... ... ... ... ... ... ... ... ... ... ... .... ... ... ... ... .... ......... .... .... ........... . ... ... ... ... ........ . . ....... .. .. .. .. .. .. ... ... ... ... ... ... ... ....... ......... 0 1 2 3 4 5 M .5 r.H. .4 .3 .2 .1 .0 .... .... .... ... .. .. .. ........ ..... .... .... .... ... ... ... ... ... ....... .. .. . . ......... ... ... .... ........ .... .... .... ........ ... ... ... ... ... ... .... ....... ......... .... .... .... .... .... ......... ......... 0 1 2 3 4 5 M .3 .1 .0 ............ ... .... ... ... ... ... .. ... ............... .... ... ... .... ... ... ... ... ... ... ... ... .... ... ... ... ... ... ... ... ... .... ... ... ... .. .. . ............ ... .............. .... .... .... .... .... ... ... ... ... ... .... .... .... .... .... . . . . . 0 1 2 3 4 5 M ............ .... .... ... ... ... .... ... ... ... ... ... .... ... ... ... .. ... .............. ... ... ... ... ... ... ... ... ... ... ... .... ... ... ... ... ... .... .......... .. .. .... ... .... .... ... ... ... ........... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... 0 1 2 3 4 5 M .2 r.H. .2 .5 .4 .3 .2 .1 .0 r.H. ........ ....... .... ............. ............... ............... . ... ....................... . . ................... ........................... ............................................... ....................... . .......................................... .. ............................................... 0 1 2 3 4 5 .1 .0 M ...... ...... ...... ...... ...... ........ ...... ......... ....... .......... ...... ......... ...... ......... .. ... ........... ............ ...... .......... ................ . . ......... ....................................... ...... ......................................... ... ........................... ............................................................................... ......................................................................................................... ............................. 0 1 2 3 4 5 M B Unterschiedlicher Eindruck je nach Wahl der Klassen 1.3 EF16 30 ? Was heißt „ Die Fehlerzahl unter Bedingung B “ ? B Mittelwert ist untauglich → Einführung einer ‚ theoretischen Ebene ‘ 4 Gegenstück : ‚ Empirische Ebene ‘ der Daten → Theoretische Sichtweise : − Die einzelnen Fehlerzahlen treten mit gewissen Wahrscheinlichkeiten auf → Aus der Variable X wird eine Zufallsvariable ( Zva ) B Dieser Begriff ist in der W-Theorie streng definiert → Hier nur etwa : Mögliche Werte ‚ + ‘ Wahrscheinlichkeiten ! Schwierigkeit ( nicht nur ) für Anfänger : − Die Wahrscheinlichkeiten sind meistens unbekannt − Womöglich prinzipiell → Hilfskonstruktion : 1.3 ‚ Olymp der Statistik ‘ EF16 31 → Wahrscheinlichkeit – Zufall ? Worin besteht der Zufall ? ? Beispielsweise in − Auswahl der Vpn − Umgebungseinflüsse bei der Untersuchung − Innere Zustände der Vpn − etc. → Was dem Zufall überlassen bleibt , ist unterschiedlich − in verschiedenen Experimenten − in verschiedenen Bedingungen desselben Experiments → − In unterschiedlichen Experimenten / Bedingungen sind die Wn der möglichen Fehlerzahlen unterschiedlich Aus einer Variable ( informell ) werden unterschiedliche Zvan → In festem Experiment : Eine Variable X ( informell ) → Aber : So viele Zvan , wie Bedingungen ( → X1 , X2 , . . .) ? Beispiel : ( Informelle ) Variable X : Fehlerzahl Im Experiment : verschiedene Zvan : − X1 : Fehlerzahl in Bedingung ‚ Nüchternheit ‘ − X2 : Fehlerzahl in Bedingung ‚ Alkohol ‘ 1.3 EF16 32 → Verteilung Die Verteilung einer Zva X gibt an , wie wahrscheinlich die möglichen Werte x von X sind ? Mögliche Verteilung der Fehlerzahl X bei Nüchternheit : x 0 1 2 3 4 5 P(X = x) 0.10 0.15 0.35 0.25 0.10 0.05 1.00 ‚ X = x ‘ : Ereignis , dass X den Wert x annimmt 4 In der Alkoholbedingung wäre die Verteilung anders Graphische Darstellung p 1 .8 .6 .4 .2 .0 r ... ... ... . r ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... . ... ... ... ... ... ... ... ... ... ... ... . ... .. 0 1 2 3 4 5 r r r r X Bezeichnung : W-Funktion 1.3 EF16 33 → Erwartungswert ♦ Def.: Der Erwartungswert E(X) einer Zva X ist X E(X) := x P(X = x) x B Eine Art Mittelwert auf theoretischer Ebene 4 Gewichtetes Mittel der möglichen Werte x − Gewichte : Wahrscheinlichkeiten B Vergleiche : Mittelwertberechnung mit relativen Häufigkeiten ? Berechnungsbeispiel x P(X = x) x · P(X = x) 0 0.10 0.00 1 0.15 0.15 2 0.35 0.70 3 0.25 0.75 4 0.10 0.40 5 0.05 0.25 1.00 2.25 → E(X) = 2.25 B Hier ist E(X) kein möglicher Wert von X − insbesondere kein ‚ erwarteter ‘ Bezeichnung für Erwartungswerte : Meist µ , µi , etc. 1.3 EF16 34 Graphische Darstellung p 1 .8 .6 .4 .2 .0 r ... ... ... . r ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... . ... ... ... ... ... ... ... ... ... ... ... . ... .. 0 1 2 3 4 5 r r ... ... ... ... .. .. ................................................................................................ ..... ..... .. .. r r r X µ 4 Es gibt auch eine ‚ Streuung ‘ auf theoretischer Ebene ? Was heißt „ Die Fehlerzahl unter Bedingung B “ etc. ? → Präzisierung meist : − Erwartungswert der entsprechenden Zva B Diese Präzisierung ist – im Vergleich zum Mittelwert M – ‚ frei von Zufälligkeiten ‘ 4 Allerdings : Erwartungswerte sind meist prinzipiell unbekannt 1.3 EF16 35 ? Wie groß sind Wahrscheinlichkeiten , Erwartungswerte , . . . ? − Meistens – streng genommen – prinzipiell unbekannt → Finde geeignete Schätzungen ? Beispiel : Würfel ♦ X : Ergebnis beim Würfeln Verteilung und Erwartungswert : x P(X = x) x · P(X = x) 1 1/6 1/6 1/6 2/6 2 3 1/6 3/6 4 1/6 4/6 5 1/6 5/6 6 1/6 6/6 1 3.5 p 1 .8 .6 .4 r .2 .0 ... ... ... ... ... . 0 1 r r r r r ... ... ... ... ... . ... ... ... ... ... . ... ... ... ... ... . ... ... ... ... ... . ... ... ... ... ... . 2 3 4 5 6 ... ... ... ... .. .. ................................................................................................................................ ..... ..... .. .. r X µ 1.3 EF16 36 Ein Experiment mit 60 Würfen x 1 2 3 4 5 6 abs. H. 10 11 8 18 7 6 60 .3 r.H. .2 .1 .0 1 6 ... ... ... . .................................................................................................................. ... ... ... ... r X → ‚ Wahre ‘ Verteilung : .3 p .2 r ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... .1 .0 0 1 r r r r r ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... 2 3 4 5 6 ... ... ... ... . . ................................................................................................................................ .... .... .. .. r X µ 1.3 EF16 37 79 Experimente mit je 60 Würfen r ......................... . . r .......................... . . r .......................... . . r .......................... . . r ......................... . . r r r ........................... . . .......................... . . r ............................. . . ............................ . . r ............................. . . r ......................... . . r ........................... . . ............................ . . r r ............................. ............................. r ......................... . . .......................... . . r .......................... . . r ........................... . . ........................... . . r ............................ . . r ......................... . . r .......................... . . r ........................... . . r ............................ r ............................ ............................ r .............................. r ............................ r ......................... r ............................. .......................... . . ............................ ............................ . . ............................. r .......................... r ............................ r ............................. r r .......................... . . ............................ . . r ........................... . . .............................. r ............................. r .............................. r ............................ .............................. ........................... ............................ . . r r r r ............................. r ............................. ............................. ........................ . . .............................. .............................. ............................. r r ............................ r ........................... . . ........................... r r r r r ............................ ............................. 1.3 r ............................ . . r r ............................. r r .............................. r r ........................... r r ........................... . . r ........................... . . r r ............................ r ................................ ........................... ........................... r .............................. r .............................. r ............................. ............................. r ......................... . . r r r r r r r r r ............................ r ............................ r ............................ r .............................. r EF16 38 Zusammenfassung zu Gesamtexperiment mit 4740 Würfen x 1 2 3 4 5 6 abs. H. 821 811 752 823 761 772 4740 r.H. .2 .1 .0 1 6 X ... ... ... ... . . ................................................................................................................................ .... .... .. .. r → ‚ Wahre ‘ Verteilung : .3 p .2 r ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... .1 .0 0 1 r r r r r ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... 2 3 4 5 6 ... ... ... ... ... . ............................................................................................................................... ... .... .. .. r X µ 1.3 EF16 39 Eindruck : → Es eignen sich als Schätzer − die relativen Häufigkeiten für die Wahrscheinlichkeiten − der Mittelwert für den Erwartungswert → Je größer die Stichprobe, um so besser die Schätzung → Für sehr gute Schätzungen braucht man sehr große Stichproben → Schätzungen sind fehlerbehaftet − Fehler sollte mit wachsendem n kleiner werden 1.3 EF16 40 Stichprobengröße und Fehler – Mittelwerte beim Würfeln .2 r.H. ......... ... ... ... ... ... ... ... .... ... ... .. .. ........ ....... ... .... ... .... ... .... .... .... .... ... ... ... ... ... .. ... ... ... ... ........ ........ ........ ............. ... ... ... ... ... ... ... ... ... ... .... ... ........ ... ... ... ... ... ... ... ..... ...... .. . ... .. ... .. ... .. ... ... . ... . .... .... ................ .... ... .... ... .... ... .... ... ... .... ... ........... ... .... ... ... ... ... ... ... ... ... ... ... ... ... ... ... .... ...... ... ..... .... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ............................ .... . . . . . . . . . . . . . .... . . . .... . .1 .0 0 1 2 3 4 ... ... .. ... .................................... ... ... r 5 6 M 79 Mittelwerte aus je 15 Durchgängen .2 r.H. ...... .. ....... ... .... ... ... ...... ... ... ... ... ... ... ...... ... ... ... ... ... ...... ... .... ... .... ... ... .... ... .... .. . .. . .. .. . .. . ........... ......... ........ ... ..... ... .... ...... . . .. .... .... ... .... ... .... .... .... ........ ......... ..... . .. .. .. .. .. .. .. .. .. .. .. .. . ....... ... ... ... ... ... ... ... ... ... ... ... ... .... .... .... .... .... .... .... .... .... .... .... .... .... ..... ............. ........ .... .... .... .... .... .... .... .... .... .... .... .... ........ . .................................... ... ... ... ... ... ... ... ... ... ... ... ... ... ... .. .1 .0 0 1 2 3 ... ... .. ... ........................... ... ... r 4 5 6 M 79 Mittelwerte aus je 30 Durchgängen .2 .......... ... .... ... ... ... ... ... .... ... ... .. ........ .... ...... . . .... .... ......... .... ... ... .... ... ... ... ... ... ... ... .... .. .... ... ... ... ... ... ... ... ... ... ... ... ... ... ... .. .. .. .. .. .. .. ......... .... .... .... .......... .... . . . ...... .... .... .... .... .... .... ........ ... .. .. .. .. .. .. .. ... . ..... .. .. .. .. .. .. .. . ...... .... .... .... .... .... .... .... .... .... .... .... ..... ............ ...... ........ .... .... .... .... .... .... .... .... .... .... .... ...... . . ................................. ....... ... ... ... ... ... ... ... ... ... ... ... ........ .. r.H. .1 .0 0 1 2 3 ... ... ... .. ........................ ... ... r 4 5 6 M 79 Mittelwerte aus je 60 Durchgängen 1.3 EF16 41 Eindruck : → Je größer die Stichprobe , − um so näher liegen die Mittelwerte bei µ B In der Tat : − M ist ein konsistenter Schätzer von µ → Vertrauensintervall 4 Mittelwert M liefert Vorstellung über die Lage von µ − jedoch : Kein Hinweis auf ‚ Genauigkeit ‘ der Schätzung Ziel der Vertrauensintervalle ( Konfidenzintervalle ) : → ‚ Einfangen ‘ des Erwartungswerts 1.3 − in einem Intervall − mit vorgegebener Wahrscheinlichkeit EF16 42 Vertrauensintervall – Vorbereitungen ♣ Gegeben : Stichprobe mit Werten x1 , . . . , xn einer Variable X − Stichprobenumfang : n , Mittelwert : M , Varianz : S 2 ♦ Def.: Die Zahl n n 1 X 2 s := S = ( xi − M )2 n−1 n − 1 i=1 2 heißt korrigierte Stichprobenvarianz , die Zahl s := korrigierte Stichprobenstreuung √ s2 heißt √ ♦ Def.: Die Zahl s/ n heißt Standardschätzfehler (des Mittelwerts) Abk.: SEM ( ‚ Standard Error of Mean ‘ ) Deutung : − Schätzung der Streuung von Mittelwerten − von Stichproben des Umfangs n − auf der Basis nur einer solchen Stichprobe B Vgl. S. 41 1.3 EF16 43 → Ergebnisdarstellung mit Standardschätzfehler ♣ Situation : Experiment zu Alkohol und Reaktionsfähigkeit − Zwei Bedingungen : − N : Nüchternheitsbedingung − A : Alkoholbedingung ( 20 g ) ? Sinkt die Reaktionsfähigkeit in Bedingung A ? − Messung mit Variable X : Fehlerzahl bei 5 Durchgängen Allgemeine Sprechweise : → Untersucht wird ‚ Einfluss ‘ einer UV auf eine AV UV : Unabhängige Variable , experimentell manipuliert − hier : Alkoholmenge − hier : realisiert in zwei Stufen : N und A AV : Abhängige Variable ( abhängig : von der UV ) − hier : Fehlerzahl X 1.3 EF16 44 ‚ Statistische ‘ Formulierung der Frage Aus Variable X werden zwei Zvan : − X1 in Bedingung N , Erwartungswert : µ1 − X2 in Bedingung A , Erwartungswert : µ2 B Die Verteilungen von X1 und X2 sind unbekannt − Die Erwartungswerte µ1 und µ2 ebenso 4 Nicht ganz korrekte, aber griffige Sprechweise : − µ1 ist der Erwartungswert von X in Bedingung N ( ↔ 1 ) − µ2 ist der Erwartungswert von X in Bedingung A ( ↔ 2 ) → ‚ Hypothese ‘ : µ2 > µ1 Zur Untersuchung dieser Frage : − Erhebung der Daten von je 20 Vpn in Bedingung N und A 1.3 EF16 45 Untersuchungsergebnis vielleicht : − Stichprobe in N liefert : M1 = 2.05 , S12 = .9475 r.H. .5 .4 .3 .2 .1 .0 r .. .. ........................................................................... . . X − Stichprobe in A liefert : M2 = 2.85 , S22 = 2.0275 r.H. .5 .4 .3 .2 .1 .0 r . . ............................................................................................................. . . X Ermittlung der SEM : Stichprobe in N : s21 = SEM : Analog in A : 1.3 20 20 2 S1 = .9475 = .9974 19 19 s √1 = 20 √ .9974 √ = .2233 20 SEM : .3267 EF16 46 Mittelwerte mit SEM − N: 2.05 ( .2233 ) − A: 2.85 ( .3267 ) → Ergebnisdarstellung ( M ± SEM ) : X 1 . ....... ......... .... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ................ .. ... ... . ................. r ................ .. ... . ................ r N A UV B ‚ M ± SEM-Bereiche ‘ → Vorstellung von der Lage der µi → „ µ2 > µ1 “ ist nicht unplausibel 1.3 EF16 47 4 Unterschiedliche ‚ Fehlerbalken ‘ .5 r.H. .4 .3 .2 .1 .0 M ±S: ... ... ... .. ........................................................................... ... ... . . M ± SEM : r .. .. ... .. ..................... ... ... .. .. r X Für SEM : Hier ist n = 20 B Unterschied : − M ± S : Hinweis auf Lage der Daten − M ± SEM : Hinweis auf Lage des Erwartungswerts 1.3 EF16 48 Vertrauensintervall – weitere Vorbereitungen → Stetige ( theoretische ) Verteilungen ( mit Dichte ) Eine neue Klasse von Verteilungen von Zvan ( ↔ ‚ diskret ‘ ) Verteilung einer Zva X ist charakterisiert durch eine Dichte g ...................... ..... ..... ..... ... .... ... . . . ... ... ... ... ... . .. ... . . . ... ... . . . ... .. . . . ... . . ... ................................... . . ... . . . . . . . . . . . .............................. .... ..... . . . ..... . .... . ..... . . . ..... .... . . . . ...... ... . . . ...... . . .... ....... . . . . . ........ ..... . . . ........... . . . ..... ............. . . . . . . . . . ....... ....... . . . . . . . . . . . . . . . . . . . . . . ....................................................................................................................................................................................................................................................................................................................................... g(x) X Zusammenhang mit Wahrscheinlichkeiten : − Die Wahrscheinlichkeit für Werte in einem Intervall ist die Fläche über dem Intervall ..... . . . . .. . . . .. ............ ............... ... ........................................... ......... ...... .......... ..... .... ..... ... ... .... . . ... .. . ... . .. ... . . ... .. . . . . ... .... . ... . . .. . ... . . . . . . . . . . . . . . . . . . . . . . . . . . . ........... ... ... . ...... . . . . . . . . . . . . . . . . . . ................... ..... .... . . ..... . . .... ..... . . . . ..... ... . . . ...... . . .... . ...... . . . . ....... .... . . . ........ . . .... . ........... . . . . . . .............. ..... . . . . . . . ..... . . . . . ... .......................................................................................................................................................................................................................................................................................................................................................... a g(x) b X Formal : Z P ( X ∈ [ a, b ] ) = P ( a ≤ X ≤ b ) = b g(x) dx a 1.3 EF16 49 Eigenschaften von Dichten und stetigen Verteilungen ................. ..... ..... ..... .... ..... ... ... ... . . ... ... . ... . . ... . . .. . ... . . . ... ... . . . . ... ... . . . . . . . . . . . . . . . . . . ... . . . . . . . . . . . . . . ........... .... ... ...... . . . . . . . . . . . . . . . . . . . . .............. ..... .... . . ..... . . .... ..... . . . . ..... ... . . . ...... . . .... . ...... . . . . ....... .... . . . ........ . . ..... ............ . . . . . . . ............... ..... . . . . . . . .. . . . . . . .......................................................................................................................................................................................................................................................................................................................................................... g(x) X → Die Gesamtfläche unter g muss 1 sein − Sie ist die W., dass X irgendeinen Wert annimmt → Die W. für jeden konkreten Wert a ist 0 .. .. ... .. . ......... ...... .......... ..... .... ..... ... ... .... . . ... ... ... . .. ... . . ... .. . . . . ... .... . ... . . .. . ... . . . . . . . . . . . . . . . . . . . . . . . . . . . ........... ... ... . ...... . . . . . . . . . . . . . . . . . . ................... ..... .... . . ..... . . .... ..... . . . . ..... ... . . . ...... . . .... . ...... . . . . ....... .... . . . ........ . . .... . ........... . . . . . . .............. ..... . . . . . . . ..... . . . . . ... .......................................................................................................................................................................................................................................................................................................................................................... a g(x) X 4 Die Fläche ‚ entartet ‘ zu einer Strecke B ‚ Wahrscheinlichkeit 0 ‘ heißt nicht ‚ unmöglich ‘ 1.3 EF16 50 → Zwei Klassen von Verteilungen Diskrete Verteilungen − Gekennzeichnet durch W-Funktion p r r ... ... ... . r ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... . r ... ... ... ... ... ... ... ... r ... ... ... . r ... .. X − Höchstens abzählbar viele mögliche Werte − Ermittlung von Wahrscheinlichkeiten durch Summation Stetige Verteilungen ( mit Dichte ) − Gekennzeichnet durch Dichte ....... ...... ........... ..... ..... ..... ... .... ... . . ... ... ... ... . ... . ... ... . . . ... .. . . . . ... ... . . . ... . . . . . . . . . . . . . . . . . . . . . . ........... ... ...... ... . . . . . . . . . . . . . . . . . . . ...................... ..... ..... . . . ..... . ... . . ..... . . . ... ..... . . . . . ...... .... . . ...... . . . ....... .... . . . . . ........ .... . . ............ . . . . . ............... ..... . . . . . . . . . . .. . ..... .......................................................................................................................................................................................................................................................................................................................................................... g(x) X − Überabzählbar unendlich viele mögliche Werte − Ermittlung von Wahrscheinlichkeiten durch Integration − Alle möglichen Werte haben Wahrscheinlichkeit 0 1.3 EF16 51 → t -Verteilungen B Eine wichtige Klasse von stetigen Verteilungen Charakterisiert durch die sogenannten Freiheitsgrade df : ‚ degree of freedom ‘ ( Freiheitsgrad ) → Für jedes n ≥ 1 gibt es eine t -Verteilung mit n df Bezeichnung : tn ? Beispiele für tn -Dichtefunktionen : t100 . ....... .......... .. ... .... ... ... ... . ... . .. . ... ... ... ... . ... ... ............................................................... . . . . . . . . . . . .. .............. ............. ......................... ... ... .. .. .. ............ ... ... .......... ......... .... ............... .................... ... ...... .......... ..... ........... ...... ... ... ..... ............. .............. ........... . . . . . . . . . . ..... ........... . ........ .... ... ..... ......... .................................. ........... ..... ... ..... ......... ...... ....... .. . .......... ..... ..... .......... ... ..... ... ...... .......... ..... ..... .......... ..... ... ..... ..... ........... ......... ... . . . . . . . . . . . . . . . . . . . . . ..... ........... ..... ... . ... . .......... ...... . . . . . . . . . . . . . . . . . . . ..... ..... ............ ... ..... .......... ..... ..... ..... .......... .... ..... ........ ..... ... ..... ......... ..... ... ..... ........ .... ..... ......... ..... ..... ..... ........ ..... ... ..... ..... ............. ..... ..................... . . . . . . . . . . . . . . . . . . . . ..... ................. ...... ... ..... ..... . .... ......... ..... ..... .............................. ..... ... .......... ..... ........ .... .......... ..... .......... ..... ..... ........ ...... ..... ... . .. ................... .......... . . . . . . . . . . . ...... ...................... . ........... .. ...... ...... .... ....... ..................... ................ ............ . . . . . . ....... ........... . .......... ............ . . ........ ..... . . . . . ........ ........ ... ........... . . . . . . . . ...................... . . ......................... ....................... .... ......................... .................................. . . . . . . . . . . . . . . ............................. . ............................ . . . . . . . . . . ................................................. . . . . . . . . . . . . . . ................. ..... ... ..................... ............................................. .... ................................................................................................................ .......................... ....................... . ................................. . ..................................... . . .. ................................ .................................... .... t10 t3 t1 0.10 1 1.3 X EF16 52 α-Fraktile ♣ Gegeben : Stetige Zva X mit Dichte g ♦ Def.: Das α-Fraktil der Verteilung von X ist der Wert , der ‚ von der Verteilung rechts α abschneidet ‘ g(x) ................. ..... ..... ..... .... ..... ... ... ... . . ... ... . ... . . ... . . .. . ... . . . ... ... . . . . ... ... . . . . . . . . . . . . . . . . . . ... . . . . . . . . . . . . . . ........... ... ..... ... . . . . . . . . . . . . . . . . . . . . . . ............. ..... .... . . . ..... . . .... ..... . . . . ..... ... . . . ...... . . .... . ....... ...... . . . . ....... ...................... .... . . . . . .............. ..... . . . . . . . ............ ........................ ..... . . . . . ..... . . . . . . . . ............................................................................................................................................................................................................................................................................................................................................................................................. ... ... .... .. ...... .. ........... α ...................................... X α-Fraktil 4 α-Fraktile sind meistens tabelliert Das α-Fraktil der tn -Verteilung heißt tn; α 1.3 EF16 53 ? Ausschnitt aus einer möglichen Tabelle mit t-Fraktilen α-Fraktile der tn -Verteilungen ( tn; α ) n\α .100 .050 .025 .010 57 58 59 60 61 1.2966 1.2963 1.2961 1.2958 1.2956 1.6720 1.6716 1.6711 1.6706 1.6702 2.0025 2.0017 2.0010 2.0003 1.9996 2.3936 2.3924 2.3912 2.3901 2.3890 ? Beispiel : t59; .025 = 2.0010 ... ...... ......... .... ... ... ... . . . . . . .......... ......................... . . . . . . ...... .... . . . ...... . .... . .... ..... . . . ... . ..... ..... ..... ... ..... . ..... . . . . . ..... . .... . . . . . ..... . .. . . . ..... . . . . ..... .... . . . . . ..... . ... . . . . . ..... . ... . . ..... . . . . ... ..... . . . . . ..... . ... . . . . . ..... . ... . . . ..... . . . .. . ..... . . . . . . ..... .... . . . . . ..... .. . . . . . ..... . . ... . . ..... . . . . . ..... . ... . . . . . ..... . ... . . . ..... . . . . ..... . ... . . . . . . ..... . .... . ...... . . . . . ... . ...... . . . . . . . ...... . .... . . . . ...... . . . ... . ... . ....... . . . . . . . ..... ........ .... . . . . . . . . ..... ......... . . . . ...... . .......... ........ . . . . . . . . . . ..................... ....... . . . . . . . . . . . . . . . . . . . . ........................... ............................ ... ... .... ... ... .. t59 ..............025 ..................... 0.10 1 X 2.0010 1.3 EF16 54 → Vertrauensintervall für µ VI : Vertrauensintervall → Das VI soll µ mit einer vorgegebenen W. ‚ überdecken ‘ Diese W. nennt man üblicherweise 1 − α Das VI heißt dann auch (1 − α) - VI ? Beispiel : Vorgegebene W. : .95 ↔ 95% − Dann : α = .05 Das VI heißt dann auch 95% - VI ( .95 - VI ) ♣ Gegeben : Zva X mit E(X) = µ ( unbekannt ) − Dazu Stichprobe vom Umfang n − Mittelwert : M , korrigierte Stichprobenstreuung : s ♦ Für gegebenes α nennt man das Intervall √ √ M − tn−1; α/2 · s/ n , M + tn−1; α/2 · s/ n auch (1 − α) - t - VI für µ 1.3 EF16 55 • Unter gewissen Voraussetzungen ist die Wahrscheinlichkeit dafür , dass das (1 − α) - t - VI für µ das unbekannte µ tatsächlich enthält , gleich (1 − α) 4 Dann trägt das VI also seinen Namen ‚ mit vollem Recht ‘ ! Praktisch sind die Voraussetzungen eigentlich nie erfüllt B Trotzdem gilt die W-Aussage sehr oft näherungsweise ? Beispiel : − 60 Mal Würfeln liefert M = 3.317 , s = 1.568 ? Gesucht : 95% - t - VI für µ → VI ist √ √ M − tn−1; α/2 · s/ n , M + tn−1; α/2 · s/ n t59; .025 = 2.001 √ √ tn−1; α/2 · s/ n = 2.001 · 1.568/ 60 = .405 → VI : ] 3.317 − .405 , 3.317 + .405 [ = ] 2.912 , 3.722 [ 4 Hier ist µ = 3.5 1.3 EF16 56 ? Beispiel : 95% - t - VIe aus 79 Experimenten à 60 Mal Würfeln µ 1 2 ... ... ... ... ... ... .. .............................................................. ...................................................................... ................................................................. ................................................................. .................................................................. .................................................................... ............................................................ .................................................................. .............................................................. ................................................................ .................................................................. ........................................................................ ............................................................ . ..................................................................... .............................................................. ................................................................. .................................................................. .................................................................... . ........................................................................ ...................................................................... .................................................................... ................................................................... ................................................................. .................................................................... ..................................................................... ............................................................... ................................................................. . ..................................................................... ................................................................ ............................................................. .................................................................. ................................................................... ................................................................... .................................................................... ...................................................................... ................................................................ ................................................................ ................................................................. . .............................................................. ...................................................................... ..................................................................... ................................................................... ................................................................ . .................................................................... .................................................................. ....................................................................... ................................................................... ................................................................... ...................................................................... ....................................................................... .......................................................... ................................................................ ...................................................................... . .................................................................. ............................................................... ... .............................................................. . .................................................................... . ..................................................................... ....................................................................... ........................................................... .............................................................. .......................................................................... ................................................................ ................................................................ .................................................................. ................................................................. ... ........................................................... . .............................................................. ..................................................................... ................................................................. ................................................................... ............................................................... .................................................................. .................................................................... ...................................................................... .................................................................. ..................................................................... .................................................................... ................................................................... .. 3 r r r r r r r r r 4 r r r r ! r ! r r r r r r r r r r r r r r r r r r r r r r r r r r r r r r ! r r r r r r r r r r r r r r X r r r r r r 6 r r r r r r r r r 5 r r r r ! r r 4 2/79 ↔ 2.53% liegt im ‚ Toleranzbereich ‘ für .05 ↔ 5% 4 Kein Hinweis auf ‚ gravierende Verletzung ‘ des ‚ Niveaus ‘ 95% 1.3 EF16 57 → VI und SEM (1 − α) - t - VI : √ √ M − tn−1; α/2 · s/ n , M + tn−1; α/2 · s/ n √ s/ n = SEM (1 − α) - t - VI also auch : M − tn−1; α/2 · SEM , M + tn−1; α/2 · SEM → (1 − α) - t - VI ist ‚ M ± SEM ‘ , vergrößert um Faktor tn−1; α/2 4 ‚ M ± SEM ‘ ist ‚ eine Art Schablone ‘ für die t - VIe − ‚ Vergrößerungsfaktor ‘ für (1 − α) - t - VI : tn−1; α/2 B Grobe Regel ( n nicht zu klein ) : − Vergrößerungsfaktor für 95% - t - VI ist etwa 2 B Breite des VI − wird mit Niveau (1 − α) größer − wird ‚ im Durchschnitt ‘ mit n kleiner √ → Wesentlicher Faktor : 1/ n in SEM ? 1.3 n 4-mal so groß → Breite etwa 1/2-mal so groß etc. EF16 58 ? Beispiel : X : Fehlerzahl in Reaktionsexperiment − Daten ( n = 20 ) → M = 2.05 , SEM : .2233 → Ziel : (1 − α) - t - VIe für α = .05 , .01 t19; .025 = 2.0930 , t19; .005 = 2.8609 .5 r.H. .4 .3 .2 .1 .0 M ± SEM : 95% - t - VI : 99% - t - VI : 1.3 0 1 5 ..... ... ...................... ... ... ... ... .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. X r ......t.... ........t..... ( Faktor : 2.0930 ) ( Faktor : 2.8609 ) EF16 59 → Ergebnisdarstellung mit VI ( unüblich ) ? Beispiel : Fehlerzahl in Reaktionsexperiment − Bedingungen : N ( nüchtern ) A ( Alkohol ) − Je 20 Vpn − Mittelwerte ( SEM ) : N : 2.05 ( .2233 ) , A : 2.85 ( .3267 ) → Ergebnisdarstellung ( M ± SEM ) : X 1 . ....... ........ .... ... .. ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... .... ................. .. .. ... .. ................ r ................. .... . ................. r N A UV → Ergebnisdarstellung ( 95% - t - VI ) : X 1 ........ ......... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... . ..t .. ............ ............ ............ N 1.3 .. ..t .. ............ A UV EF16 60 → Interpretation des VI ? X : Fehlerzahl in Reaktionsexperiment ( E(X) = µ ) − 20 Durchgänge liefern M = 2.05 , SEM : .2233 95% - t - VI für µ : ] 1.58 , 2.52 [ Versuch einer Interpretation : − Die W., dass sich µ in dem Intervall ] 1.58 , 2.52 [ befindet , ist etwa 95% ‚ etwa ‘ wegen fehlender Voraussetzungen → Die ‚ Interpretation ‘ bezieht sich auf ein ‚ konkretes ‘ schon eingetretenes ‚ Ereignis ‘ ! Die ‚ Interpretation ‘ ist Unsinn B Vgl. S. 57 → Mögliche Interpretation : − Das Intervall ] 1.58 , 2.52 [ wurde nach einem Verfahren konstruiert, das ( unter gewissen Voraussetzungen ) mit einer W. von 95% ein Intervall liefert, das µ enthält 4 Hier bezieht sich die W-Aussage auf das Verfahren ( ‚ abstrakt ‘ ) 1.3 EF16 61 Zur Interpretation Richtig ist folgende Aussage : − Die W., dass das sich µ in dem Intervall √ √ M − tn−1; α/2 · s/ n , M + tn−1; α/2 · s/ n befindet , ist etwa 1 − α B Hier sind M und s gewissermaßen Zvan − Das Intervall ist noch ‚ zufallsabhängig ‘ ( ‚ abstrakt ‘ ) → Unsinnig wird die Aussage beim Einsetzen konkreter Werte B Verwechslung von Zvan mit konkreten Werten 1.3 EF16 62 Ergänzung zu ‚ etwa ‘ ? Wie groß ist die W. , dass das 95% - t - VI µ enthält, wirklich ? ? Antwortversuche für das Beispiel ‚ 60-mal Würfeln ‘ → Zwei Zugangsweisen : Exakt Rechnen und Simulieren → Exakt Rechnen Auflisten aller möglichen Serien von 60 Würfen Jeweils Bestimmung des zugehörigen VI Auszählen , wie oft diese VIe den Wert µ = 3.5 enthalten → Gesuchte W. ist Anzahl ‚ günstiger ‘ Serien Anzahl aller Serien B Hier sind alle Serien gleich wahrscheinlich → Konkret : Anzahl der Serien ist 660 = 48 873 677 980 689 257 489 322 752 273 774 603 865 660 850 176 Benötigte Zeit ( in Jahren à 365 ) bei 5000 Serien pro Sekunde : 309 954 832 449 830 400 109 860 174 237 535 539 1.3 EF16 63 → Exakt Rechnen – etwas intelligenter Statt Serien : bereits mögliche Häufigkeitsverteilungen Anzahl der möglichen Verteilungen : 65 65 ! = 8 259 888 = 5 ! · 60 ! 5 Benötigte Zeit ( bei 5000 Verteilungen/sec ) : etwa 30 Minuten Mögliche Speicherprobleme Immerhin : Exakte Rechnung für kleinere Serien machbar → Resultat : 1 ........... p .95 r r r r r r r r r r r r r r r ................................................................................................................................................................................................................................................................................................................................... r .9 r r ........... .85 ........... r ........................................................................................................................................................................................................................................................................................................................................................................................................................................... ... ... ... ... ... .. .. .. .. .. 1 5 10 15 20 n − p : W., dass das 95% - t - VI µ enthält − n : Seriengröße 1.3 EF16 64 Ergänzung zu ‚ etwa ‘ ? Wie groß ist die W. , dass das 95% - t - VI µ enthält, wirklich ? → Zugangsweise : Simulieren 4 Vorteil : Simulieren kann ‚ jeder ‘ ♠ Prinzip : Führe Versuch sehr oft durch − bei gegebener Verteilung – und ‚ virtuell ‘ Ermittle die relative Häufigkeit h ‚ günstiger ‘ Ergebnisse → Benutze h als Schätzer für die gesuchte W. ? Hier : Erzeuge sehr viele Serien von 60 Würfen Bestimme die relative Häufigkeit h , mit der das VI µ enthält → Schätze das ‚ wahre ‘ Konfidenzniveau durch h 1.3 EF16 65 ‚ Virtuelles ‘ Würfeln Durch geeignete Computerprogramme 4 Kleines Problem : Computer arbeiten ‚ deterministisch ‘ − Ergebnis : nur ‚ Pseudozufallszahlen ‘ − Vom ‚ wirklichen ‘ Zufall ( hoffentlich ) nicht unterscheidbar ? Kontrolle : Häufigkeitsverteilung von 10 000 simulierten Würfen r.H. .20 .15 .10 .05 .00 1 2 3 4 5 6 → Der ‚ Computerwürfel ‘ scheint zu funktionieren 4 Verbrauchte Zeit : < .02 sec ? Beispiel : Zwei Simulationen von 60 Würfen : 3 2 2 3 2 6 4 5 2 5 2 1 4 1 1 5 6 3 5 1 1 6 2 1 3 3 2 2 1 4 2 3 1 6 1 5 5 2 2 2 4 3 1 5 3 3 1 5 5 6 2 1 4 3 3 5 2 3 1 5 2 2 3 5 6 3 3 3 6 1 4 2 4 1 4 2 1 1 5 5 1 5 4 3 5 3 5 5 5 4 5 4 1 5 3 3 2 2 2 3 5 4 4 4 1 2 4 6 4 3 6 4 4 4 6 1 1 2 4 5 B Der Zufall sieht oft nicht nach Zufall aus 4 Auch nicht in der Realität 1.3 EF16 66 → Weitere Kontrolle der Simulation ? Wie groß ist die W. , dass das 95% - t - VI µ enthält, wirklich ? Vergleich von Simulationsergebnissen mit der wahren W. Größe der Serie : 20 Wahre W. : .9485 Mehrere Simulationen von je 10 000 Serien liefern .9517 , .9515 , .9505 , .9436 , .9483 , .9499 , .9486 → Hinweis auf Brauchbarkeit der Simulation 4 Rechenzeit pro Simulation : Etwa 1.8 sec 4 Aufgaben pro Simulation : − 10 000 Serien von je 20 Würfen erzeugen − Daraus die ( 10 000 ) VIe bilden − Feststellen der relativen Häufigkeit , mit der sie 3.5 enthalten → Nun endlich : Anfangsfrage : Größe der Serien : 60 Mehrere Simulationen von je 10 000 Serien liefern .9494 , .9508 , .9495 , .9504 , .9476 , .9485 , .9514 → Dem VI scheint man einigermaßen trauen zu können 1.3 EF16 67 Hypothesentesten. ? Beispielfragestellung : ? Senkt Alkohol die Reaktionsleistung ? → Durchführung einer geeigneten Untersuchung Festlegung : Wie wird Reaktionsleistung gemessen ? ? Beispielsweise durch Fehlerzahl X in Reaktionsexperiment Festlegung : Welche Bedingungen werden verglichen ? ? Beispielsweise Nüchternheit ( N ) und 20 g Alkohol ( A ) → Also : − UV : Trunkenheitsgrad T mit zwei Stufen : A und N − AV : Fehlerzahl X mit möglichen Werten 0, 1 . . . , 5 Festlegung : Wie viele Vpn ? ? Beispielsweise 20 pro Bedingung Weitere Festlegungen ? Beispielsweise : Was für Vpn ? Wann ? Wo ? 1.4 EF16 68 → Formulierung der Hypothesen → Unterscheide : Inhaltliche Hypothese ↔ Statistische Hypothesen Inhaltliche Hypothese : − Alkohol erhöht die Fehlerzahl → Ziel : ‚ Ableitung ‘ von statistischen Hypothesen Bezeichnungen : − µ1 : Erwartungswert von X in Bedingung N − µ2 : Erwartungswert von X in Bedingung A 4 Formulierungen etwas unsauber Entsprechung der inhaltlichen Hypothese : µ2 > µ1 ( H1 ) Formulierung einer Art ‚ Gegenteil ‘ Beispielsweise : µ2 = µ1 ( H0 ) → Ergebnis : Hypothesenpaar H0 : Nullhypothese , H1 : Alternativhypothese B Normalerweise ‚ wird ‘ die inhaltliche Hypothese zur H1 1.4 EF16 69 Statistische Hypothesen : H0 : µ2 = µ1 H1 : µ2 > µ1 → Ziel : ‚ Entscheidung ‘ zwischen diesen Hypothesen B Die Entscheidung beruht auf Daten − Die Daten enthalten ‚ Zufallskomponenten ‘ → Es ist mit Fehlentscheidungen zu rechnen „ H0 “ : Entscheidung für H0 „ H1 “ : Entscheidung für H1 Typen von ‚ Fehlern ‘ Entscheidung Wahr ist H0 H1 α : W. des Fehlers 1. Art β : W. des Fehlers 2. Art 1.4 „ H0 “ „ H1 “ korrekt Fehler 1. Art Fehler 2. Art korrekt EF16 70 → Gesucht : Entscheidungsregel → Forderung : − Die W. des Fehlers 1. Art soll klein bleiben → Genauer : − Es wird eine obere Grenze dafür vorgegeben ♦ Diese Grenze heißt auch Signifikanzniveau Bezeichnung meist α B Doppeldeutigkeit von α − ‚ W. des Fehlers 1. Art ‘ und ‚ Signifikanzniveau ‘ → Bedeutung ergibt sich jeweils aus dem Kontext Sinnvoll wären Zusätze : − → − ‚ Fehler-W. α ‘ , ‚ Signifikanzniveau α ‘ Hier gilt zunächst meistens : α ist die maximal zulässige W. des Fehlers 1. Art 4 In vielen Fällen ist dies α auch die tatsächliche Fehler-W. ! 1.4 Bezeichnungen sind leider uneinheitlich EF16 71 → Gesucht : Entscheidungsregel 4 Entscheidungsregeln benutzen meist sogenannte Teststatistiken Hier soll ein sogenannter t - Test durchgeführt werden − Genauer : t - Test ‚ für zwei unabhängige Stichproben ‘ ♣ Bezeichnungen ( allgemein ) : − n1 , n2 : Größen der beiden Stichproben − M1 , M2 : Mittelwerte von X in den Stichproben − s21 , s22 : zugehörige korrigierte Stichprobenvarianzen − n := n1 + n2 : Gesamtstichprobengröße Teststatistik für den t - Test : t := s M2 − M1 n1 + n2 n1 n2 s (n1 − 1) s21 + (n2 − 1) s22 n1 + n2 − 2 → Entscheidungsregel : − Verwirf H0 , falls t ≥ tn−2; α 4 Verwerfen von H0 bedeutet Entscheidung für H1 1.4 EF16 72 ? Beispiel : ( Erhöht Alkohol die Fehlerzahl ? ) Daten aus den beiden Gruppen ( n1 = n2 = 20 ) liefern − M1 = 2.05 , s21 = .9974 − M2 = 2.85 , s22 = 2.1342 X 1 . ....... ........ ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... . ................. ... .. ... .. ................ r ................ .... .. ................ r N A T Rechnung : t = s = r M2 − M1 n1 + n2 n1 n2 s (n1 − 1) s21 + (n2 − 1) s22 n1 + n2 − 2 2.85 − 2.05 = 2.0217 r 20 + 20 19 · 0.9974 + 19 · 2.1342 20 · 20 38 t38; .05 = 1.6860 → H0 kann verworfen werden ( α = .05 ) 1.4 EF16 73 → Untersuchung der t - Statistik t = s M2 − M1 n1 + n2 n1 n2 Zähler : M2 − M1 s (n1 − 1) s21 + (n2 − 1) s22 n1 + n2 − 2 ( Mittelwertdifferenz ) Nenner – Bestandteile : Zweiter Bestandteil : (n1 − 1) s21 + (n2 − 1) s22 n1 + n2 − 2 s2 := Gewichtetes Mittel aus s21 und s22 Gewichte : ( ni − 1 ) / ( n1 + n2 − 2 ) √ s := s2 Erster Bestandteil : n1 + n2 1 1 = + n1 n2 n1 n2 4 Spiegelt die Stichprobengrößen wider – vgl. SEM → Insgesamt : Nenner ist eine Art Streuungsmaß 1.4 EF16 74 → Untersuchung der t - Statistik t = s B M2 − M1 n1 + n2 n1 n2 s (n1 − 1) s21 + (n2 − 1) s22 n1 + n2 − 2 t wird groß − bei großer Mittelwertsdifferenz M2 − M1 − bei kleinen Varianzen s2i − bei großen Stichprobengrößen ni → Große Werte von t sprechen für H1 → t erscheint als ‚ vernünftige ‘ Statistik → Als ‚ sinnvoll ‘ erscheint die Entscheidungsregel : − Verwirf H0 für hinreichend große Werte von t ? Was heißt ‚ hinreichend groß ‘ ? ? Wo ist die Grenze ? Die Grenze heißt auch kritischer Wert Abkürzung : k 1.4 EF16 75 → Bestimmung des kritischen Werts • Unter geeigneten Voraussetzungen : − Falls H0 gilt, so hat t eine tn−2 - Verteilung ..... .......... ... .... ................................................. . . . . . . . . ........ ..... . . . ....... . . .... . ...... ...... ... ...... ...... ...... ...... ... ...... ...... . . . . . . ...... . ... . . . . ...... . . . . ...... ..... . . . . . . ...... . ... . . . . ...... . . . . .... ...... . . . . . . . ...... . .... . . . . ....... . . . . ..... ....... . . . . . . . ....... . .... . . . . . . ........ . . . .... . . ........ . . . . . . . ......... . ...... . . . . . . . ........... . . . . ...... . . . .............. . . . . . . . . . . .................. . .......... . . . . . . . . . . . . . . .................................... . . . . . . . . ............................. .. tn−2 0.10 t 1 Gesuchte Entscheidungsregel bis jetzt : − Verwirf H0 , falls t ≥ k ( noch unbekannt ) Unter H0 gilt : − Der Fehler 1. Art tritt auf genau dann, wenn t ≥ k gilt → Die W. eines Fehlers 1. Art ist die W. für t ≥ k → Diese W. wird α genau für k = tn−2; α . ...... ......... .. ... . .............................................. . . . . . . . . . ........ ...... . . . ....... . . .... . .... ....... . . . . . ... . ...... .. ...... ...... ... ...... ...... . . . . . . ...... . .... . . . ...... . . . . ... . ...... . . . . . . ...... . .... . . . . . ...... . . . .... . ...... . . . . . . ...... . .... . . . . . ....... . . . .... . . . ....... . . . . . ....... .... . . . . . . . . ........ . . ..... . . ........ . . . . . . .... ......... . ..... . . . . . . . . . ........... .......... . ...... . . . . . .. . . . . . . . . . . .................................... .......... . . . . . . . . . . . . . . . . . . . . . . . . . . .................................. ................................. .. .... ... .. tn−2 0.10 1 ..............α... ............. ..t.......... tn−2; α → Damit ist tn−2; α in der Tat der geeignete kritische Wert 1.4 EF16 76 Leider sind die ‚ geeigneten Voraussetzungen ‘ hier nicht erfüllt ? Darf man den t - Test trotzdem durchführen ? B Ja , denn die Erfahrung zeigt : − Der t - Test ist recht robust ♦ Das heißt : − Bei nicht allzu gravierenden Verletzungen der Voraussetzungen ist die tatsächliche W. eines Fehlers 1. Art immer noch etwa gleich dem Signifikanzniveau α 4 Rechtfertigung beispielsweise mit Simulationen ? Beispiel einer solchen Simulation Erster Schritt : Festlegung von konkreten Verteilungen − Genauer : Verteilung von X in den Bedingungen N und A → Hier soll H0 gelten ? Eine mögliche Wahl : Gleiche Verteilung in N und A , nämlich x 0 1 2 3 4 5 P ( X = x ) .1 .15 .35 .25 .1 .05 Wegen gleicher Verteilung : Insbesondere µ1 = µ2 1.4 EF16 77 Beispiel : Wahl der gleichen Verteilung in N und A : p .4 .2 .0 r ... ... ... . r ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... . ... ... ... ... ... ... ... ... ... ... ... . ... .. 0 1 2 3 4 5 r r r r X ? Beispiel : Eine Simulation für diese Situation N : 2, 3, 3, 1, 1, 1, 0, 2, 4, 0, 4, 2, 2, 0, 3, 4, 5, 2, 0, 3 A : 1, 1, 1, 2, 3, 2, 2, 1, 2, 2, 2, 3, 3, 1, 2, 2, 2, 1, 3, 2 Kennwerte : M1 = 2.1 , S12 = 2.19 , M2 = 1.9 , S22 = .49 t = −0.533 Zweiter Schritt : − Eigentliche Simulation : 10000 solche virtuellen Stichproben Ergebnis : 522 der 10000 t - Werte sind ≥ t38; .05 = 1.686 → Relative Häufigkeit : .0522 Weiter Simulationen liefern .0496 , .0477 , .0514 → Hier scheint der t - Test in Ordnung 4 Mögliche Rechtfertigung für den untersuchten Fall : − Viele andere Simulationen mit anderen ‚ H0 - Verteilungen ‘ − Oder eben : Berufung auf die Erfahrung 1.4 EF16 78 → Diskussion möglicher Testergebnisse B Zwei Möglichkeiten : t ≥ tn−2; α und t < tn−2; α Erster Fall : t ≥ tn−2; α Sprechweisen : Das Ergebnis ist signifikant ( auf dem Niveau α ) t ist signifikant ( auf dem Niveau α ) → Entscheidung für H1 B ( Teilweise ) Rechtfertigung : − Beschränktes Risiko einer Fehlentscheidung , falls H0 gilt α heißt gelegentlich auch Irrtumswahrscheinlichkeit Sprechweise dann : Entscheidung für H1 bei Irrtumswahrscheinlichkeit α Versuch einer Interpretation eines signifikanten Ergebnisses − Ich entscheide mich für H1 . Die Wahrscheinlichkeit, dass ich mich irre, ist höchstens ( etwa ) α. ! Unsinn aus den bekannten Gründen ! Statistische Termini darf man fast nie ‚ wörtlich‘ nehmen ! 1.4 EF16 79 → Diskussion möglicher Testergebnisse Zweiter Fall : t < tn−2; α ♦ Das Ergebnis ist nicht signifikant → Entscheidung für H0 ? Rechtfertigung ? 4 Eine Rechtfertigung müsste auf β Bezug nehmen Über β lässt sich meist keine brauchbare Aussage machen − Insbesondere könnte β oft womöglich ziemlich groß sein Entscheidung für H0 lässt sich meist nicht rechtfertigen − Jedenfalls nicht statistisch → Daher : Korrektur des Entscheidungsverfahrens − Signifikantes Ergebnis → Entscheidung für H1 − Kein signifikantes Ergebnis → keine Aussage Sprechweise bei nichtsignifikantem Ergebnis : − H0 kann nicht verworfen werden ! Sehr oft wird falscher Eindruck suggeriert 1.4 EF16 80 → Untersuchung von β 4 Eigentlich müsste β neu definiert werden : ♦ W. eines nichtsignifikanten Ergebnisses , falls H1 gilt β kann ( im Prinzip ) bestimmt werden − falls die Verteilungen von X1 , X2 unter H1 spezifiziert werden 4 Meist sind viele Verteilungen mit H1 verträglich H1 heißt dann zusammengesetzt − Gegensatz : einfach ( oder : unexakt ) ( oder : exakt ) ? Im betrachteten Fall sind beide Hypothesen zusammengesetzt B β ist abhängig von − dem Signifikanzniveau α − den tatsächlichen Verteilungen von X − den Stichprobengrößen Sprechweise auch : β ist eine Funktion von . . . 4 Abhängigkeit von den ‚ tatsächlichen Verteilungen ‘ → Hier genauer : − von den Verteilungen von X in den Bedingungen N und A 1.4 EF16 81 → Untersuchung von β → Hier beispielhaft mit Hilfe von Simulationen → Zu spezifizieren sind − α − die Verteilungen von X für N und A − die Stichprobengrößen ? Vergleichsbeispiel : − α = .05 − Verteilung von X1 ( X unter N ) : x 0 1 2 3 4 5 P ( X1 = x ) .1 .15 .35 .25 .1 .05 − Verteilung von X2 ( X unter A ) : x 0 1 2 3 4 5 P ( X2 = x ) .05 .1 .25 .3 .2 .1 µ1 = 2.25 , µ2 = 2.8 − → H1 gilt n1 = n2 = 20 ? 10000 Simulationen liefern 6101 nichtsignifikante Ergebnisse → Relative Häufigkeit : .610 → Hinweis auf ein großes β 1.4 EF16 82 β ist abhängig von α Je größer α − um so kleiner der kritische Wert − um so größer die Chance auf ein signifikantes Ergebnis − um so kleiner β ? Beispiel : α = .1 statt .05 Kritischer Wert : t38; .1 = 1.304 ( statt 1.686 ) ? Jetzt 4695 nichtsignifikante Ergebnisse ( statt 6101 ) β ist abhängig von der Verteilung Größere Unterschiede in den Verteilungen sollten − eher zu signifikanten Ergebnissen − also zu kleinerem β führen ? Beispiel : Änderung der Verteilung von X2 zu x 0 1 2 3 4 5 P ( X2 = x ) .05 .05 .1 .15 .25 .4 µ2 ist jetzt 3.7 ( statt 2.8 ) ? Jetzt 652 nichtsignifikante Ergebnisse ( statt 6101 ) 1.4 EF16 83 β ist abhängig von der Stichprobengröße Je größer die Stichproben − um so genauer die Schätzungen − um so größer sollte die Chance auf ein signifikantes Ergebnis − und um so kleiner β werden ? Beispiel 1 : n1 = n2 = 5 ( statt 20 ) Kritischer Wert : t8; .05 = 1.860 ( statt 1.686 ) ? Jetzt 8336 nichtsignifikante Ergebnisse ( statt 6101 ) ? Beispiel 2 : n1 = n2 = 100 ( statt 20 ) Kritischer Wert : t198; .05 = 1.653 ( statt 1.686 ) ? Jetzt 858 nichtsignifikante Ergebnisse ( statt 6101 ) 1.4 EF16 84 → Power ♦ ( 1 − β ) heißt auch Power ( Güte ) des Tests 4 Die Power ist die W. für „ H1 “ , falls H1 gilt − oder : die W. , mit der H1 sich durchsetzt • Die Power wird größer − bei größerem Signifikanzniveau α − bei größerer Verschiedenheit der Verteilungen − mit wachsenden Stichprobengrößen 4 Hier gilt sogar : − Power → 1 für n1 , n2 → ∞ B Etwas ungenau : − Mit wachsendem n wird alles signifikant → Natürlich nur , wenn H1 gilt ! Gefahr korrekter , aber irrelevanter Ergebnisse Signifikanz 6= Relevanz 1.4 EF16 85 → Idealfall , graphisch B Idealfall liegt hier nicht vor → Graphik dennoch nützlich − Hoffentlich ‚ näherungsweise ‘ richtig − Dient der Veranschaulichung Verteilung von t unter H0 : tn−2 . ....... .......... ... .. ..................................... ........ ............ . . . . . . . .... ....... ..... . . ....... . . . ... . . ...... ...... ... ...... ...... . . ...... . . . . . ...... . .... . . . . . . ...... ... . . . . . ...... . . . . ...... ..... . . . . . . ...... ... . . . . . ...... . . . . .... ...... . . . . . . . ...... ... . . . . . . ....... . . . .... . . ....... . . . . . . . ....... . ..... . . . . . ........ . . . . ..... . ........ . . . . . . . . .......... . ...... . . . . . . . ........... . . . . . ....... . ............... . . . . . . . . . . . . . . . ...................... . .......... . . . . . . . . . . . . . . ........................... . . . . . . . . . . . . . . . . . . .......... . tn−2 t 1 ? Verteilung von t unter H1 ? → Im Idealfall : tn−2, δ − Nonzentrale t - Verteilung δ : Nonzentralitätsparameter ( NZP ) → Schaubild beispielsweise ........ ......... ... .... ................................ .. ............. ......... ... ......... ........ ....... ... ....... ...... . ....... . . . ... . ...... .... . . . ... . ...... . . ...... ... .......... ...... ........ . ...... .... . ...... . . . ...... ... ... . . . . . ...... . .... . . . ...... . . . . ....... . .... . . . . . . . ....... . .... . . . ....... . . . . . ........ .... . . . . . . . . ........ . ..... . . . . ......... . . . . . . ......... ..... . . . . . . . . . . . ...... ... . . . . . . . . . . . . . . .......... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .......................................................................................... . tn−2, δ 1 1.4 t EF16 86 t - Dichten mit unterschiedlichen NZPn ..... .......... ... .... .. ......................................................................................................................... .............................................. . . . . . ......... ... .................. . ........ ......... ........ . . ........ ....... ..... ........ . ....... ......... . . . . . . . . ....... . . ................... ....... ....... .... . . ....... ....... ............ . . . ....... . ....... . . . . . ...... ...... ...... .... .... ............ . . . . . . . ...... . . . . . . . . . . . . . . . . . . . . . ...... ...... ...... . ................ .... .... ..... . . . . . . . . . . . . . . ...... . . . . . . . ...... ...... . ............... ... ... ... . . . ...... . . . . . . . . . . . . . . . . . . . . . ...... ...... ...... ...... .... .. . .... .... . . . . . . . . . . . . . . . . ...... . . . . . . . . . . . ...... ......... ...... ... ... ... .... . ...... . . . . . . . . . . . . . . . . . . . . . . . . . . . ...... ...... ...... ... ... ... ......... .... .... . . . . . . . . . . . . . . . ...... . . . . . . . . . . . . ...... ...... ...... . ........ .... ....... .... .... . . . . . . . . . . . . . . . . . . . . . . . . . . . ....... ....... ...... ....... . ........ .... .... ..... . . . . . . . . . . . . . . . ... . . . . . . . . . . . . . ....... ....... ....... .... .... .... ...... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ........ ........ ........ .... ... .... .... ..... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ......... ......... ......... . .... ..... ..... ..... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ... .......... ............ .. .. ... ........... .............. ............... ........... ........... ........... .... .............. .................... ............. .................................................................................... ... ................................................. ..................... . .. ................................... ................................................................................................................................................................................... . 1 t 4 Verformung ( nicht Verschiebung ) im Vergleich zu t - Dichte B NZP ist ‚ Maß ‘ für Verformung − Je größer NZP , um so stärker Verformung 4 NZP wird größer − mit wachsender Erwartungswertdifferenz µ2 − µ1 − mit sinkender ( theoretischer ) Streuung − mit wachsendem n Bei Gültigkeit von H1 ( und im Idealfall ) : − Verteilung von t ist eine der vielen tn−2, δ - Verteilungen → Welche genau , ist unbekannt 1.4 EF16 87 Verteilung von t unter H0 und H1 − ( eine H1 - Möglichkeit im Idealfall ) .. ....... ........ .... ...................................................... ................................................. .......... ......................... ......... .. ........ . ........ . ... ... . . . ... . ....... ....... ............. .... . . . . . . . . . . . ....... . . . ....... . .......... ..... ....... . . . . . . . . . . ....... ....... ... ........... . . . . . . . . ....... . . . ....... ..... .... . . . . ....... . . . . . . . . . . . ....... ....... ..... ..... ... . . . . . . . . . . . . . ....... ....... . .... .... . . . . ........ . . . . . . . . . . . . . ........ ........ . .... .... . . . . . . . . . . . . . . . . . . . ........ ........ . ..... ..... . . . . . . . ......... . . . . . . . . . . . . . ......... .......... ..... ..... . . . . . . . . . . . . . . . . . . . . . . . ........... . . . ............ ...... . ....... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .................. ......... . .......... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ................................... .. ... .. ..................................................................................................................................... H0 H1 t 1 Kritischer Wert k ....... ........ ... .. . . . . .... ............. ............................... . ............... ... ....................... ........................ .......... .......... ......... ........ .... . . . . . . . .... ........ .. ..... ....... .............. . . . . . . . . . . . . . ...... . . . . ....... .... . . ..... . . . . . . . . . . ... ........... . . . . ....... ... ....... ...... ....... ... ............... ....... ....... . . . . . . . . . . . . . . ... . . . . ....... ....... .... .... ... . . . . . ....... . . . . . . . . . ... ....... ....... . .... ..... . . . . . . . . . . . . . . . . . . ........ ....... . . .... ..... . . . . . . . . ........ . . . . . . . . . . . . ........ . . .... ..... ........ . . . . . . . . . . . . . . . . . . . . . . ......... ......... ..... . ..... . . . . . . .......... . . . . . . . . . . . . . . . . . . . .......... . ................. . ...... ....... . . . . . . . . . . . . . . . . . . . . . . . . ............... ........ . .... . ........ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ................................ ... .............. .............. .............. .... ..................................................................................................................................... ... ... ... ... ... . ... ... . H0 H1 1 ......................... .......... t .... k α β . ....... ........ ... ...... ... ...... ... ... .. ....................................... . .... ..................... ......... ..... ... ........ ... .... . ....... . ... .......... .. ........ ...... . . . . . . . . . ..... . . . ... .. . ......... . . . . .... ............. . . ... ... ....... .. ...... ... ... ....... ... .......... . . . . . . . . . . . ....... ... ... ....... ....... .... ... .... ... ....... ...... . . . . . . . . . . . . . . ........ ... . . ..... ... . . . . . ........ . . . . . . . . . ... .. . .. ......... ..... . . . . . . . . . . . . . . . .......... ..... .... .. . . . . . . . . . ........... . . . . . . . . . . ....... . ..... ....... .... . . . . . . . . . . . . . . . . .. . ........ . . ......... .... . . . . .. . . . . . . . .. . . . .. . . . .. . ... . . . . . ... .... .............. ...... ................................................................................... .............. .. ................... .... .... .................... . . . . . . . . .. . .. . . . . . . . β .. .. . . . . . . . . . . ................................................................................................... 1 k t Power . ....... ......... .... ...... ....................................... ... .... ............. .... ..................... ......... .... ... ........ .... .... . .............. .......... . ... .. ....... . . . . . . . . . . . . . ............ . ... . .. ... ... ..... ... .... ............ ... .......... ..... ... ....... ... .. ... ..... ....... ... ......... ... . . . . . . . . . . . . . . . ........... ... .. ... ... ....... .... .... ........ ... ...... ... ..... .............. ... .. ... ....... ... ........ ..... ... ....... ... .... ... ......... ..... ... ....... . . . . . . . . . . . .......... . . . . . . . ... ........... ......... .... ........ .... ..... ..... ........... . . . . . . . .. . . . . . .. . . .. . . . . . ........ . . ...... ......... . . . . .. . . . . . . . . .. . ... . . . . . . ... . .... . . . . . . . . .......... ...... ............................................................................. .............. ................... .. .... ... ......... Power .. .............. .................................. 1 1.4 k t EF16 88 → Power und NZP ? Beispiel : Wachsender NZP wegen wachsender Differenz µ2 − µ1 − Stichprobenumfang ( n = 40 ) etc. soll gleich bleiben δ = .5 . ...... .......... .. ... . ................................................. ............. ....... ... ............ .... ......... .... .... . .... . . ........ ... . . ... .. ..... .... . . . ....... . ... . . . ... . ....... .. . .... . . . . . . . . . . . ... . . . ....... ... ... .. . .... . . . . . . . . . . . ... . . . ... ....... ... .. . ... . . . . . . . . . . . . . ... . ....... .... ... .. . .... . . . . . . . . . . . . . . . . . ... ........ . . ... ... ....... .... .. ......... ... ... ... ....... ... .. ........... ..... ... ... ....... ......... ... .... .... ........ ... . ............ .... ........ . . . . . . . . . . . . . . . . . . .......... . . ..... .... .... .......... .... ..... ........... ........ .............................. ...... .............................. ... ... ............. ........... ........ .... ...... ... ... ...... .......................................... ............. .............. ................... ... .. Power 1 ........... .. .................. .................t..... . k δ = 1 ... ...... ......... .... ...... ...... ........................................ ... ........ ... .... ..................... ......... .... ... . ........ .... .... .......... ........ ..... . ... . ....... ....... ... .. . . . . . . . . . . .. ....... ... . ... .... ... ... ..... .................. ... .......... ... ....... . ..... ... ... ......... ....... ......... ... ... . . . . . . . . . . ......... . ... ... ....... .... ... .. ..... .... ...... ... ... ..... .............. ... .. ....... ... ... ........ ..... ....... ... .... .... ... ......... ..... ....... ... . . . . . . . . .......... . . . . . . . . .. ........... .... .......... .... ......... .... .... ..... ........... . . . . .. . . . . .. . . . .. . . .. . . . . . ......... ...... . . ........... . . . .. . . . . . . . . . ... . . .... . . . . . . . .... . . .......... . . . . . . . . . . ...... ........................................................................... . ................... ... ... ......... Power .. .......... .......... .. ........................... 1 k t δ = 1.5 . ....... ......... .... ...... ......................................... ... ............. .... .... .............. .... ..... ... ... ............... ......... ... .... ..... ........ . ... ............... . ... ... ....... ......... .. . . . . . . . . . . . . . . . . .. ........ ...... .... .... .... ... ..... ............. ...... ... ....... ... ..... ... ... ....... ... ....... ..... ... ....... ... ... ... ....... ..... ... ....... . . . . . . . . . . . ....... . . . . ... . ......... . .. ........ . . . . . . . . . ....... ... ........... . ... . . . . . . . .... .. .. ........ . . . . . . . . . . . . ...... . ...... ... . . . . . . . . . . . . . . . ...... . . ....... . .... . . . . . . . .. . . .. . . . . . .. . ........ .. ...... ................. ......... ....................... .... ..... ...... ................... .............. .................................................................................................................... ... ... 1 ............. Power .. ........... ...... .. ............................ t k 4 Ähnliche Schaubilder bei wachsendem n 1.4 EF16 89 → p - Werte → Alternative Ergebnisbeschreibung − Signifikanzniveau wird nicht explizit genannt − Praktisch bei maschinellen Auswertungen Anstelle der Angabe ob signifikant auf gegebenem Niveau : p : Anteil , den der Wert der Teststatistik bei H0 abschneidet 4 Die Teststatistik ist hier t ? Typisches Beispiel einer solchen Angabe : − t38 = 1.9 ( p = .0325 ) − t38 bedeutet hier , dass die Zahl der df 38 ist − Bezeichnung besser : temp ( empirisches t ) statt t38 Schaubild dazu : .. ....... ........ .... ...................................................... .......... ......... .. ........ ........ . . . . . ... . . ....... ....... ....... ... ....... . ....... . . . . . . ....... ... . . . . . . . . . ....... .... . . . . . ....... . . . . . ....... ..... . . . . . . . ....... . .... . . . . . ....... . . . . .... ........ . . . . . .. . . . . ........ . ..... ... . . . . . ......... . . . . ... ..... . . .......... . . . . . . . . . . ............ ...... . ....... . . . . . . . . . . . . . . . . . . . . .... ........ .................... ... ......................................................... .... ......................................... . .... ... .. H0 p 1 ............................... t temp ? Ist dieses Ergebnis signifikant auf dem 5% - Niveau ? 1.4 EF16 90 ? t38 = 1.9 ( p = .0325 ) .. ........ ....... .... ..................................................... ......... .......... .. ........ ......... . . . . . ... . ....... ....... ....... ... ....... . ....... . . . . . . . ....... . .... . . . . . . ....... . . . .... . . ....... . . . . . . ....... . ..... . . . . . . . ....... . .... . . . ....... . . . . . ........ . ..... . . . . .. . . . . ........ . ..... ... . . . . ......... . . . . . ... . .......... ..... . . . . . . . . . . . ............ ..... . ....... . . . . . . . . . . . . . . . . . . . . . . . ....... .... ................... ... ......................................................... .... .......................................... . .... ... .. H0 p 1 ............................... t temp ? Ist dieses Ergebnis signifikant auf dem 5% - Niveau ? Hilfsfrage : Wo liegt der kritische Wert k ? k schneidet 5% ab .. ...... ......... .. ................... ............... ... ....................... ........ ......... .. ....... ........ . . . . . ... . ....... . ....... ....... ... . ....... ....... . . . ... . . . . ....... . ... . ... . . . . ....... . . . ... . .... . . . . . . . . . . . . . . . . ....... . ....... ....... .... ... .... ....... ....... ... ... .. ....... ........ ... ........ ........ ... ... ... ... ........ ........... . . ... . . . . . . . . . . . ..... . ... . .......... .... .... ......................... .... ........... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ... . .................. ... ......................................................... .... .... . .......................................... .... ... .. ... . ..... ... ... . .05 p H0 1 ............................... t k temp k liegt also weiter links → Das Ergebnis ist signifikant auf dem 5% - Niveau B temp ist genau dann signifikant auf α - Niveau , wenn p ≤ α → Alternative Definition von p : − Das Niveau , auf dem temp gerade noch signifikant wird 4 Womöglich heißt auch p gelegentlich Irrtumswahrscheinlichkeit 1.4 EF16 91 ? Grenzen der Robustheit ♣ Mögliche Situation : − Verteilung von X1 ( X unter N ) : x 0 1 2 3 4 5 P ( X1 = x ) 0 0 .5 .5 0 0 − Verteilung von X2 ( X unter A ) : x 0 1 2 3 4 5 P ( X2 = x ) .5 0 0 0 0 .5 µ1 = µ2 = 2.5 → H0 gilt also 4 ( Theoretische ) Varianzen sind deutlich verschieden − Fehlende ‚ Varianzhomogenität ‘ ? Waren solche Situationen eigentlich gemeint ? Zusätzlich : n1 = 20 , n2 = 5 ( ungleiche Stichproben ) Signifikanzniveau : 5% 10000 Simulationen liefern 1903 signifikante t - Werte → Hinweis auf deutliche Verletzung des Signifikanzniveaus B ‚ Gefährliche ‘ Situation beim t - Test : − Fehlende Varianzhomogenität und ungleiche Stichproben 1.4 EF16 92 → Linksseitige Fragestellungen Statistische Hypothesen jetzt : H0 : µ2 = µ1 H1 : µ2 < µ1 4 H1 : µ2 > µ1 heißt entsprechend ‚ rechtsseitig ‘ Testen : Gleiches Verfahren Wieder : Benutzung der t - Statistik Jetzt : Verwerfen von H0 bei ‚ kleinen ‘ Werten → α muss jetzt links ‚ abgeschnitten ‘ werden ? Welches ist jetzt der kritische Wert ? B Die t - Verteilung ist symmetrisch ( zur y - Achse ) . ....... ........ ... .. ............................................. ........ .......... . . . . . ... . ....... ..... . . . ....... . . ... . ...... ...... ... ...... ...... . . . . ...... . . . . ...... ..... . . . . . . ...... ... . . . . . . ...... . . . ..... ...... . . . . . . ...... . ... . . . . . ...... . . . .... . ...... . . . . . . ....... ... . . . . . . . . . ....... .... . . . . . ....... . . . . ....... . ..... . . . . . . . . ........ .... . ...... . . . .. ......... . . . . . . . ...... .. .......... ........... .. ........................ ............... . . . . . . . . ... . . . . . . . . . . . . . . . . .... ...... ................................................ . ........... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ........ . . . . . . . .. . ... ... ... .... ... .. tn−2 ..... . . . . . . . . . . . . . . . . . . . . ... ............. α −tn−2; α 0.10 1 ..............α... ............. ............ t tn−2; α → Links wird α abgeschnitten von − tn−2; α 1.4 EF16 93 → Linksseitiges Testen → Regel für linksseitiges Testen also ( Niveau α ) : − Verwirf H0 , falls t ≤ − tn−2; α Weitere Überlegungen : Völlig analog zum rechtsseitigen Fall 4 Zusätzliche Überlegungen zeigen : − Die Tests sind auch korrekt bei ‚ erweiterten ‘ Nullhypothesen Rechtsseitig : H0 : µ2 ≤ µ1 H1 : µ2 > µ1 Linksseitig : H0 : µ2 ≥ µ1 H1 : µ2 < µ1 B Signifikanzniveau wird auch in ‚ Zusatzfällen ‘ eingehalten 4 Alternativlösung für die linksseitige Fragestellung : − 1.4 Gruppen vertauschen und rechtsseitig testen EF16 94 → Zweiseitige Fragestellungen Statistische Hypothesen jetzt : H0 : µ2 = µ1 H1 : µ2 6= µ1 4 ( Richtung unklar – schlechte inhaltliche Theorie ? ) Testen : Wieder Benutzung der t - Statistik ? Geeignete Entscheidungsregel ? Sinnvoll jetzt : − Verwerfen von H0 bei ‚ kleinen ‘ oder ‚ großen ‘ Werten → Auf beiden Seiten insgesamt α abschneiden − Naheliegend : auf jeder Seite α/2 . ....... ........ ... .. ........................................ ........... ........ . . . . . . ... . ....... ...... . . ....... . . ... . . ...... ...... ... ...... ...... . . . ...... . . . . . ...... .... . . . . . . ...... . ... . . . . ...... . . . . ...... ..... . . . . . . ...... . ... . . . . . ...... . . . .... . ...... . . . . . . ...... . ... . . . . . ....... . . . . .... . ....... . . . . . . . ....... . ..... . . . . . ........ . . . . ..... ... . ......... . . . . . . . .. . .......... ... . ...... . . . . . . . . ............ .... . . . ................. . ................. . . . . . . . . . ........................... . . .......... .. . . . . . . . . . . . . . . . . . . . . . . . .................. . . . . . . . . . . . . . ...... . ... ... ... .... ... .. tn−2 α/2 .......................... α/2 0.10 −tn−2; α/2 1 ........................... t tn−2; α/2 → Insgesamt wird symmetrisch α abgeschnitten durch − tn−2; α/2 ( links ) und 1.4 tn−2; α/2 ( rechts ) EF16 95 → Zweiseitiges Testen → Regel für zweiseitiges Testen also ( Niveau α ) : − Verwirf H0 , falls t ≤ − tn−2; α/2 oder t ≥ tn−2; α/2 → Alternativ : − Verwirf H0 , falls | t | ≥ tn−2; α/2 → Power zweiseitig : .. ........ ....... .... .. ........... .... ..... ................................................. .... . . .... .... ...... ........ . ... ....... .......... ... . . . . . . . ... ...... . ... ... . . . . ...... . . ... . . ...... .. . ..... . . . . . . . . . . ...... . ... . ... . . . . ...... . . . . . ... .. . ...... ... . . . . . . . . . . ...... . ... . .... . . . . ...... . . . . . ... . .. ... ...... . . . . . . . . . . ...... . . ... ... . . . . . . . ...... . . . . ... ... .. . ... ...... . . . . . . . . . . ... . ....... ... .. . .... . . . . .. ....... . . . . . . . ... . ........ .... ..... ... . . . . . . . . . . . . ......... .... .... ... ... .... .. ..... ........ .... ... .... ......... ..... ... ..................... ... . ......... ........... ............... ........ ...... ... .................................... ........... ... ........... .... .. ... . . . . . . . ... . . . . . . ...... . . . . ... . . . . . . . . . . ..... . . . . . . . . . . . .............................. ... ... ... ... ... ... H1 H0 Power Power ..................... −tn−2; α/2 1 ............. ...........t................ tn−2; α/2 B Beide Anteile berücksichtigen ! − Power ist Summe aus beiden Teilflächen 1.4 EF16 96 → p - Wert beim zweiseitigen Test ‚ Abschneiden ‘ jetzt zweiseitig ( symmetrisch ) − Passend zum Test ? Beispielangabe : t38 = −1.75 ( p = .088 ) Wieder temp statt t38 : ..... .......... ... .... ................................................. . . . . . . . . ........ ..... . . . ....... . . .... . ...... ..... ... ...... ...... ...... ...... ... ...... ................ ...... . . . . . . ...... ................. .... . ... . . . . ...... .................. . . . .. . ...... .................................. ..... . . . . . . ... .. .. ...... .......................... .... ...... .................. ...... .. . . . . . . . . . . . . . . . . . . . . . . . . . ...... . .. ....................... ...... ....... ... ...... ....... ..................... ....... ... ................. ....... ....... .................. ....... .... ... ....... ................. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ......... . ... ...... ........... ......... ................................. .... .......... .. ... ... ........................... ............. ............. .......................... .................. ... ................... ..................................... . ... ... . . ..... ..... p H0 ....................................... ... ................................... 1 temp −temp t B temp und −temp schneiden zusammen p ab → temp ist hier nicht signifikant auf 5% - Niveau ? Ist eine gegebene p - Angabe einseitig oder zweiseitig ? Zusatzinformation nötig − Kontext − Explizite Angabe ( z.B. ‚ one-tailed ‘ – ‚ two-tailed ‘ ) B Umrechnung : pzweiseitig = 2 peinseitig 1.4 EF16 97 → Einseitige und zweiseitige Power → Vergleiche Power des einseitigen und zweiseitigen t - Tests ! − Niveau : 5% , df : 38 t38; .05 = 1.686 , t38; .025 = 2.024 .. ........ ....... .... .. ........... .... ..... ................................................. .... . . .... .... ...... ........ . ... ....... .......... ... . . . . . . . ... ...... . ... ... . . . . ...... . . ... . . ...... .. . .... ...................... . . . . . .. . . . . . . ...... .................... . ... . ... ... .. . . . . ...... . . . . . . . . . . . . . . .................... ... ... ... .. . ...... ... . . . . . . . . . . . . . . . . . . . . ... . ..................... ...... ... ... ... . . . . . . . . . . . . . . . . . . . . . . . . . . . ..................... ... . ... ...... . .. .................... . ...... ... ... ... ... ....................... ...... ...... ... ... ... ... . ....................... ...... ...... ... ... .................... ....... .... ... ...... .... ... .................... ... . ...... . . . . . ... . . . . . . . . . . . . . . . .................... . .. ... ....... .......................... .. .............. .... ... ....................... .. ........ ........ ... .... ... .......... .................... ........ ... .... ... .............. .......... ... ... ......... ........ ........................... ............ . . . . . . .. . . . . . . .. . . . . . . ......... ............................. ............... .... .. . ... ... . . . . . . . . . ... . . . . . . .. . . . . ..... . . . . . . . . . . . .............................. ... ... ... ... ... ... ... .... .. ... ... ... .. Power zweiseitig H0 H1 .................... −2.024 1 Power einseitig ......... .. ................... ............................ t 2.024 1.686 → Beim einseitigen Test ist die Power größer B Praktische Konsequenz : → Einseitige Fragestellungen einseitig testen ! → Theorien sollten möglichst zu einseitigen Fragen führen − 1.4 Vielleicht nochmal genauer nachdenken ! EF16 98 ? Beispiel für Mogeln Jemand hat eine rechtsseitige Hypothese : − ‚ Alkohol steigert die Fehlerzahl ‘ Test liefert : t38 = −1.9 ( p = .0325 ) Mittelwerte : MN = 3.24 , MA = 3.06 → Signifikant , aber leider in der falschen Richtung ‚ Erneutes Nachdenken ‘ führt zum Schluss : − In der betrachteten Menge sollte Alkohol die Fehlerzahl senken Linksseitiger Test ( mit denselben Daten ) → Jetzt ist das Ergebnis signifikant – wie gewünscht ? Problem ? → Insgesamt wird ‚ eigentlich ‘ zweiseitig getestet − Ergebnis wird einseitig ‚ verkauft ‘ → Das tatsächliche Testniveau ist doppelt so hoch wie angegeben 4 Mögliche Folgerung : → Einseitige Tests sind zu verbieten 1.4 EF16 99 → Untersuchung von mehr als 2 Gruppen ♣ Wieder : Fehlerzahl nach Alkohol − Zwei Experimentalgruppen ( A, A+ ) , Kontrollgruppe ( N ) − A , A+ : wenig bzw. viel Alkohol Codierung : N ↔ 1 A↔ 2 A+ ↔ 3 Erwartungswerte : µ1 , µ2 , µ3 Inhaltliche Hypothese − Alkohol hat eine Wirkung auf die Fehlerzahl Umsetzung in statistische Hypothesen H0 : µ1 = µ2 = µ3 H1 : nicht H0 4 Anmerkungen : Korrekte Verneinung von H0 : − Mindestens zwei Erwartungswerte unterscheiden sich − Nicht : Alle Erwartungswerte unterscheiden sich − Schon gar nicht : µ1 6= µ2 6= µ3 H1 hier inhaltlich eher unbefriedigend − Entspricht aber dem Standard-Auswertungsverfahren − Angemessenere Wege sind möglich 1.4 EF16 100 ? Beispieldaten : N 1 1 5 1 A A+ 3 3 2 4 4 5 4 4 Stichproben sind unangemessen klein Zunächst : Deskriptive Aufarbeitung Gruppe N A A+ Besetzung 4 3 4 Mittelwert 2 3 4 korr. Stichprobenvarianz 4 1 .6666 1.00 0.58 0.41 Standardschätzfehler Fehler 1 . ........ .......... .... ... .. ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... . r ................. .... ... ... ... ... ... ... ... ... ... ... ... .. ................ ................ .. ... ... ... ... ... ... . ................. r r N 1.4 ................. .... ... ... ... ................. A A+ Bedingung EF16 101 → Testen der Hypothesen → Suche nach einer geeigneten Teststatistik Erinnerung : t - Statistik war im wesentlichen grob : − Mittelwertdifferenz durch ‚ Streuung in den Gruppen ‘ Idee einer Teststatistik hier : − ‚ Varianz der Mittelwerte ‘ durch ‚ Varianz in den Gruppen ‘ Bezeichnungen : j : Index für die Bedingungen / Gruppen J : Anzahl der Gruppen nj : Gruppengrößen yij : Wert von Vp i in Gruppe j ( i = 1, . . . , nj ) P N : Gesamtzahl der Beobachtungen ( N = j nj ) Mj : Gruppenmittelwerte s2j : korrigierte Stichprobenvarianzen in den Gruppen M : Gesamtmittelwert Hier : J = 3 , N = 11 , j nj Mj s2j 1 4 2 4 M = 3 2 3 3 1 3 4 4 .6666 4 Hier ist M auch Mittelwert der Mj – Zufall ! 1.4 EF16 102 → Quadratsummen Einführung von Hilfsgrößen SSb := J X nj (Mj − M )2 j=1 SSw := nj J X X (yij − Mj )2 j=1 i=1 = J X ! (nj − 1) s2j j=1 SStot := N · Gesamtvarianz SS : Sum of Squares , Quadratsumme b , w , tot : between , within , total → Deutung Ersetze Daten durch Mj bzw. Abweichungen von den Mj Neue Werte : Originaldaten , Mj , Abweichungen : N 1 1 5 1 A A+ 3 3 2 4 4 5 4 N 2 2 2 2 A A+ 3 4 3 4 3 4 4 N A A+ −1 0 −1 −1 −1 0 3 1 1 −1 0 Varianzen dieser Werte : SStot /N , SSb /N , SSw /N 4 Bei Varianzbildung wird Gruppenzugehörigkeit nicht berücksichtigt B Die SS sind ‚ Vorstufen ‘ der Varianzen ? Im Beispiel : SStot = 24 , SSb = 8 , SSw = 16 1.4 EF16 103 → Quadratsummenzerlegung • SStot = SSb + SSw 4 Bis auf 1/N : Zerlegung der Gesamtvarianz − in einen ‚ systematischen Anteil ‘ − und einen ‚ Fehleranteil ‘ B Zerlegung kann Rechnungen verkürzen Idee einer Teststatistik : − ‚ Varianz der Mittelwerte ‘ durch ‚ Varianz in den Gruppen ‘ Das wäre hier (SSb /N )/(SSw /N ) = SSb /SSw → Tatsächlich nimmt man F := SSb /(J − 1) SSw /(N − J) 4 Unterschied nur Faktor (N − J)/(J − 1) J − 1 : Zählerfreiheitsgrade N − J : Nennerfreiheitsgrade B Gegen H0 sprechen große Werte von F 1.4 EF16 104 → Ergebnistabelle Weitere Bezeichnungen : MS b := SSb /(J − 1) MS w := SSw /(N − J) MS : Mean sum of Squares , Mittlere Quadratsumme Damit : F = MS b /MS w → Tabelle df MS F Varianzquelle SS between SSb J − 1 MS b F within SSw N − J MS w total SStot N − 1 ? Im Beispiel : Varianzquelle SS df MS F between 8 2 4 2 within 16 8 2 total 24 10 ♦ Das Verfahren heißt (einfaktorielle) Varianzanalyse − Auch : Einwegvarianzanalyse 4 Mit Faktor ist die UV gemeint 1.4 EF16 105 → Testen der Hypothesen H0 ist für große Werte von F zu verwerfen ? Was ist ‚ groß ‘ ? Hierzu : Verteilung von F unter H0 ? Unter Idealbedingungen hat F eine FJ−1, N −J - Verteilung − Idealbedingungen hier nicht erfüllt − Trotzdem gilt Verteilungsaussage ( hoffentlich ) näherungsweise → F - Verteilungen B Eine wichtige Klasse von stetigen Verteilungen Gekennzeichnet durch Zähler- und Nennerfreiheitsgrade → Für jedes n ≥ 1 und jedes m ≥ 1 gibt es eine F - Verteilung mit n Zähler- und m Nenner-df Bezeichnung : Fn,m B Verwendung beispielsweise in Varianzanalysen 1.4 EF16 106 ? Beispiele von F - Verteilungen 1 ... ..... ........ .. .. ... ... ... .... ... .................................................................. ... ... ... ... .... ... ....... ... ... ... ... ... ....... ... ....... ... ..... ... ....... ............................................................................... ... ... .... ... ... ... ... ... .................... ... ...... ... ........ ..... ... ..... ... ..... ... ... .. ... ..... .. ..... ....... ..... . ... ..... ..... ... .... ..... ..... ..... ............................................. ... ..... ..... ... ... ... ..... ..... ... ... ..... ..... ... ..... . ... ... ..... ... ...... ...... ..... ... ... ...... ...... ..... ... ... . ...... ..... ....... ............ ...... ... .. . ....... ...... ... .... ........ ............. ....... . ......... ........ ... ... ......... ............... ......... ... ... ........... ......... ........... .. ... ............. ...... ................. .................................................. ...... ...................... . . ........................................................................................... ...... ................................................................................... ...... . .................................................................................. ....................... . ...................... . ....................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................... F1, 3 F2, 8 F4, 9 1 F Das α - Fraktil der Fn, m - Verteilung heißt Fn, m; α 1 . ....... ......... .. .... .. ... ... ... ... ... ... ... ... ... ... ... ... ... .... ....... ............ ... ...... .... ... ..... ... ... ..... ... ..... .. ... . ..... ... .... ..... .................................................. ... ... ..... ... ... ..... ..... ... ... ...... ... ... ...... ...... ... ... ...... ... .. ....... .. ....... ... ... ... ....... ... ... ... ........ ... ......... . ... ... . .......... ... ...... ............ ... .............. ....... ... ................. ....................... ..... ...... .................................... ..... ........................................................ .. . ................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................... ... ... ... Fn, m α .................................................................................... 1 1.4 Fn, m; α F EF16 107 → Testen in der Varianzanalyse → Entscheidungsregel ( für Niveau α ) : − Verwirf H0 , falls F ≥ FJ−1, N −J; α → Tabellen mit Fn, m; α - Fraktilen Üblicherweise gibt es getrennte Tabellen für verschiedene α ? Beispiel : Ausschnitt aus einer Tabelle für α = .05 1 2 3 4 5 m\n 1 161.45 199.50 215.71 224.58 230.16 2 18.51 19.00 19.16 19.25 19.30 3 10.13 9.55 9.28 9.12 9.01 4 7.71 6.94 6.59 6.39 6.26 5 6.61 5.79 5.41 5.19 5.05 6 7 8 9 10 5.99 5.59 5.32 5.12 4.96 5.14 4.74 4.46 4.26 4.10 4.76 4.35 4.07 3.86 3.71 ? Im Beispiel benötigt : F2, 8; .05 = 4.46 4.53 4.12 3.84 3.63 3.48 4.39 3.97 3.69 3.48 3.33 ( für 5% - Niveau ) F = 2.00 ist also nicht signifikant → H0 kann nicht verworfen werden 4 Mögliche Angabe hier auch : F2, 8 = 2.00 ( p = .198 ) − 1.4 p hier : Anteil , den F bei H0 - Verteilung rechts abschneidet EF16 108