Formelsammlung Statistik II SS 2006 Allgemeine Formeln V AR (x) = E x2 − E 2 (x) , 1 n P x2i − 1 n P 2 x V AR (x2 − x1 ) = V AR (x1 ) + V AR (x2 ) − 2 · COV (x2 − x1 ) σ̂ 2 = n n−1 · s2 = SAQ n−1 σ̂x = √σ̂ n Abstand der Erwartungswerte in Standardeinheiten: d′ = z0 − z1 Faires Kriterium: z1 (x0 ) = −z2 (x0 ) , x0 = σx Konfidenzintervall: x±z(1−α/2) ·b x1 ·σx2 +x2 ·σx1 σx1 +σx2 (für Pop-Parm) µ±z(1−α/2) ·b σx (für Mittelwert) z-Test für unabhängige Stichproben, n1 + n2 ≥ 50, homogene Varianzen (X 1 −X 2 )−(µ1 −µ2 ) 2 ist standardnormalverteilt, es gilt σ∆X = r n1 s21 +n2 s22 1 1 Aus Stichproben: σ b∆X = n1 +n2 −2 · n1 + n2 z= σ b∆X σ12 n1 + σ22 n2 t-Test für unabhängige Stichproben, n1 + n2 < 50, homogene Varianzen, Merkmal normalverteilt t= (X 1 −X 2 )−(µ1 −µ2 ) σ b∆X σ b∆X = q ist t-verteilt mit df = n1 + n2 − 2 Freiheitsgraden n1 s21 +n2 s22 n1 +n2 −2 · ( n11 + 1 n2 ) t-Test für abhängige Stichproben (N < 30), Merkmal normalverteilt d ist die Differenz der Meßwertpaare; d ist das arithm. Mittel der Differenzen d ist t-verteilt mit df = n − 1 (Anzahl Paare) Freiheitsgraden t = d−µ σ b d σ bd = σ bd √ n σ bd = qP (di −d)2 n−1 = q n·s2d n−1 Einzelne: σ bd = q Kritische z-Werte der Standardnormalverteilung z0 1.64 1.96 2.33 2.58 F (z ≤ z0 ) 0.95 0.975 0.99 0.995 1 n 2 n−1 (s1 + s22 − 2 · cov(x1 , x2 )) Mehrstichprobentests für unabhängige Gruppen homogener Varianz, normalverteiltem Merkmal und unabhängigen Fehlerkomponenten Einfaktorielle Varianzanalye: xij = µ + αj + eij P P dftot = n · p − 1 QStot = ni=1 pj=1 (xij − G)2 P QStreat = n · pj=1 (X̄j − Ḡ)2 dftreat = p − 1 P P QSf ehler = ni=1 pj=1 (xij − xj )2 dff ehler = (n − 1) · p F = 2 σ̂treat 2 σ̂f ehler ist F-verteilt mit p-1 Zähler- und p(n-1) Nennerfreiheitsgraden A-priori-Kontraste t= D σ̂∆X̄ , D= 2 σ̂∆ X̄ ist t-verteilt mit p(n-1) Freiheitsgraden P P cj · X j , cj = 0 P = n1 · cj 2 · σ̂f2 ehler t2 = F(1;dff ehler ) ⇐⇒ F = (Kontrastbedingung) D2 2 σ̂∆ X̄ A-posteriori-Test, (Scheffé-Test) r Dcrit = 2·(p−1)·σ̂f2 ehler ·F(dftreat ;dff ehler ;1−α) n zweifaktorielle Varianzanalyse xijk = µ + αi + βj + αβij + eijk P P P QStot = pi=1 qj=1 nk=1 (xijk − G)2 QSA = n · q · QSB = n · p · QSA×B = n · additiv AB ij QSf ehler Pp i=1 Pq j=1 Pp i=1 Ai − G 2 Bj − G Pq j=1 dftot = n · p · q − 1 2 dfA = p − 1 dfB = q − 1 additiv 2 AB ij − AB ij = Ai + B j − G P P P = pi=1 qj=1 nk=1 (xijk − AB ij )2 , dfA×B = (p − 1) · (q − 1) dff ehler = (n − 1) · p · q 2 2 ) Prüfvarianz (σ̂test A fest B fest σ̂f2 ehler σ̂f2 ehler σ̂f2 ehler zu prüfende Varianz 2 σ̂A 2 σ̂B 2 σ̂AxB A fest B zufällig 2 σ̂AxB σ̂f2 ehler σ̂f2 ehler A zufällig B zufällig 2 σ̂AxB 2 σ̂AxB σ̂f2 ehler A-priori-Kontraste Pp ci ·Ai )2 Pi=1 , FA p 2 i=1 ci 2 σ̂D(A) = n·q·( 2 σ̂D(B) = n·p·( 2 σ̂D(A) = Pq cj ·B j )2 Pj=1 , FB q 2 j=1 cj 2 σ̂test = , dfzähler = 1, dfnenner = dfσ̂test 2 2 σ̂D(B) 2 σ̂test , dfzähler = 1, dfnenner = dfσ̂test 2 Bedingte Einzelvergleiche: 2 σi(j) = «2 „ P ci(j) ·AB ij n· i P i n· 2 σj(i) = P j c2i cj(i) ·AB ij P j c2j !2 ,F = 2 σi(j) 2 σ̂F ehler , Si(j) = [(p − 1) + (p − 1) (q − 1)]·F(dfA +dfA×B ,dfF ehler,1−α ) ,F = 2 σj(i) 2 σ̂F ehler , Sj(i) = [(q − 1) + (p − 1) (q − 1)]·F(dfB +dfA×B ,dfF ehler,1−α ) Der F − Wert ist mit dem S− Wert zu vergleichen. A-posteriori-Einzelvergleiche (Scheffé-Test) Dif fcrit (A) = Dif fcrit (B) = r r Dif fcrit (AB) = 2 2·dftreat(A) ·σ̂test ·F(df treat(A) ;df (test);1−α) n·q 2 2·dftreat(B) ·σ̂test ·F(df r treat(B) ;df (test);1−α) n·p 2·(p·q−1)·σ̂f2 ehler ·F(p·q−1;dff ehler ;1−α) n Varianzanalyse mit Meßwiederholung, einfaktoriell, q− Messwiederholungen QS-Zerlegung und Freiheitsgrade: QStot = QSzwV P n + QSinV P n QSinV P n = QStreat + QSres 3 QdV zwVPn inVPn treat res tot df (n − 1) n · (q − 1) (q − 1) (q − 1) · (n − 1) q·n−1 2 . Testung des Effekts und der apriori-Kontraste an der σres Aposteriori (Scheffe): Dif fcrit = s 2 ·F 2 · (q − 1) · σ̂res (dftreat ,dfres ,1−α) n Test auf Gleichverteilung von Häufigkeiten P (oi −ei )2 ist χ2 -verteilt mit (m-1) Freiheitsgraden χ2 = m i=1 ei Test auf Unabhängigkeit bei nominalskalierten Daten P Pn (oij −eij )2 ist χ2 -verteilt mit (m-1)·(n-1) Freiheitsgraden χ2 = m i=1 j=1 eij eij = Zeilensumme(i)×Spaltensumme(j) n ist auch Test der Signifikanz der P hi-Korrelation rφ aus + - A C + B D r χ2 rφ = p = N (A + B) (C + D) (A + C) (B + D) r rφ ps qt , rmax = · mit pt ≥ qt rcorr = rmax qs pt B·C −A·D U - Test Bringe Messobjekte aus zwei unabhängigen Gruppen mit Umfängen n1 und n2 in eine gemeinsame Rangreihe. Bilde Rangsummen T1 und T2 . Berechne U − Wert und bilde zTeststatistik: q n1 ·(n1 +1) n1 ·n2 (n1 +n2 +1) n1 ·n2 u z = U σ−µ ; U = n · n + − T ; µ = ; σ = 1 2 1 U U 2 2 12 U Correction for ties: σU,Korr = r v u k u n3 − n X t3i − ti n1 · n2 ·t − n · (n − 1) 12 12 i=1 4 mit n = n1 + n2 , ti = Personen, die sich Rang i teilen (Länge der Rangbindung) und k = Anzahl der Rangbindungen (Gruppen mit gleichen Rängen). Ferner gilt U + U ′ = n1 · n2 wobei U ′ der Wert für Gruppe 2 ist. Für n1 , n2 < 20 nutze gesonderte Tabelle kritischer U - Werte (für den kleineren der Werte U, U ′ . Für U ′ gilt n′1 = n2 , n′2 = n1 ). Wilcoxon - Test Bilde Differenzen di von Messwerten für vorher - nachher Messungen. Weise den Beträgen |di | Rangplätze zu. Ignoriere 0- Differenzen (n wird um die Anzahl der 0- Differenzen reduziert). Bilde Rangsumme für die Abweichungen mit dem selteneren Vorzeichen, T . Berechne normalverteilte Teststatistik z (für Anzahl Messpaare n ≤ 25 gesonderte Tabelle). s z= T −µT σT ; µT = n·(n+1) ; 4 n·(n+1)·(2·n+1)− k P i=1 σT,Korr = 24 t3 −ti i 2 Vorzeichen - Test Bestimme für eine Reihe von n Messwerten, die Anzahl k der Fälle, die kleiner als ein vorher gesetzter Normwert, x0 sind. Betrachte das Problem als Wurf einer fairen Münze und bestimme die Wahrscheinlichkeit P (j ≤ k|n) in der Binomialverteilung mit der Grundwahrscheinlichkeit p = 0.5. Binomialverteilung und Approximation durch die Normalverteilung Wahrscheinlichkeitsdichte und Verteilungsfunktion n · pk · q n−k ; Dichte: P (k |n ) = k k X n · pj · q n−j höchstens k mal: P (j ≤ k |n ) = j j=0 mindestens k+1 mal: n X n · pj · q n−j P (j ≥ k + 1 |n ) = j j=k+1 wobei P (j ≥ k + 1 |n ) = 1 − P (j ≤ k |n ) gilt und q = 1 − p ist. Für die Binomialverteilung B [n; p] gilt: µ=n·p σ2 = n · p · q Gilt ferner n · p · q ≥ 9, so gilt die Approximation durch die NV B [n; p] ∼ N [µ; σ] 5 Testen von Varianzunterschieden σ̂ 2 F = σ̂12 ist F-verteilt mit (n1 -1) Zähler- und (n2 -1) Nennerfreiheitsgraden. Die grössere 2 Varianz ist in den Zähler zu stellen. Bartlett - Test prüft Varianzhomogenität aus p− Stichproben des Umfangs ni mit χ2 − Statistik bei df = p − 1. ! ! X X 2.303 2 2 2 · (ni − 1) · log10 σ̂F ehler − (ni − 1) · log10 σ̂F ehler(i) χ = C i i mit C =1+ 1 · 3 · (p − 1) X i 1 1 −P ni − 1 (ni − 1) i Wahrscheinlichkeit Typ disjunkte allgemeine Addition Unabhängigkeit Unabhängigkeit bedingte WK totale WK Bayes Formel P (A ∪ B) = P (A) + P (B) P (A ∪ B) = P (A) + P (B) − P (A ∩ B) P (A|B) = P (A) P (B|A) = P (B) P (A ∩ B) = P (A) · P (B) P (A ∩ B) P (A|B) = P P (B) P (B) = P (B|Ai ) P (Ai ) P (B|Ai ) P (Ai ) P (Ai |B) = P P (B|Ai ) P (Ai ) Kombinatorik (n- Elemente, k - ”Plätze”), Def.: 0! = 1. mit Wiederholung nk Reihenfolge wichtig Reihenfolge egal n+k−1 (n + k − 1)! = k k! (n − 1)! 6 ohne Wiederholung — nicht alle verschieden n! n! n1 !n2 ! . . . nk ! (n − k)! n n! = k k! (n − k)!