Formeln zur Statistik (1.1) (1.2) (1.3) (1.4) (1.5) (1.6) (1.7) Mittelwert, Varianz bei Einzelwerten Freiheitsgrade Abweichungsquadrate Lineare Einfach-Regression Multiple lineare Regression, DW-Tabelle A'-Regression VT – Regression (2.1) (2.2) (2.3) (2.4) (2.5) Linearer Trend und Saisonschwankungen Logistischer Trend Gleitende Mittelwerte Wachstumsfaktoren Exponentielles Glätten (3.1) Konzentrationsmaße (3.3) Häufigkeitsverteilung (4.1) (4.2) (4.3) (4.4) (4.5) Wahrscheinlichkeit Chi2-Unabhängigkeitstest Diskrete Zufallsvariable Stichprobenmittel Stetige Zufallsvariable (5.1) (5.2) (5.3) (5.4) (5.5) (5.6) (5.7) (5.8) Binomialverteilung Hypergeometrische Verteilung POISSON-Verteilung Normalverteilung Standard-Normalverteilung Approximationsbedingungen Anpassung und Korrekturfaktoren Chi2 - Anpassungstest (6.1) (6.2) (6.3) (6.4) Konfidenzintervall Hypothesentest unbekannt Stichprobe ohne Zurücklegen Tabellen (7.1) Binomialverteilung (7.2) POISSON-Verteilung (7.3) Tabelle FISHER-Prüfmaß xF (7.4) Tabelle Chi2-Prüfmaß 2 (7.5a)Tabelle STUDENT-Prüfmaß F(t) (7.5b)Tabelle STUDENT-Prüfmaß D(t) (7.6) Standardnormalverteilung FSN Statistik - Neff Formeln zur Statistik (1.1) Maßzahlen bei Einzelwerten Mittelwert bei N bzw. n Einzelwerten xi 1 N In der Grundgesamtheit µ xi N i 1 n Statistik - Neff Ax xi x xi 2 Abweichungsquadrate 2 i 0 s2 1 n xi n i 1 2 1 xi n Varianz bei N bzw. n Einzelwerten xi 1 N 1 2 xi µ der Grundgesamtheit: N i 1 N der Stichprobe: x in der Stichprobe: N x i 1 i 2 µ2 n 1 1 n 2 2 x x xi nx 2 n1 i n 1 i 1 n 1 i 1 n Standardabweichung in der Grundgesamtheit: 2 in der Stichprobe: s s 2 (1.2) Freiheitsgrade "nü" Freiheitsgrade df, degrees of freedom) ist die Anzahl der frei wählbaren, unabhängigen Einzelwerte, die in die statistischen Berechnungen einbezogen werden können. a) bei der Stichprobenvarianz n-1 b) beim FISHER-Prüfmaß = n-p-1 p Anzahl der Einflussgrößen c) beim STUDENT-t-Prüfmaß in der multiplen Regression: = n-p-1 im Hypothesentest: = n -1 d) beim Chi2-Prüfmaß im Unabhängigkeitstest = (k - 1) · (l - 1) im Anpassungstest =k–p–1 (1.3) Abweichungsquadrate bei Regressionsanalysen SS "Sum of Squares", Summe der Abweichungsquadrate A MS Mittlere Summe der Abweichungsquadrate, Varianz 2, Mean Sum of Squares p Anzahl der Einflussfaktoren 2 n n yi yˆi SSRes 2 2 AError ( yi yˆi ) ei = SSResiduen MSResiduen n - p -1 n p 1 i 1 i 1 2 n SSGesamt ( yi yi ) 2 AGesamt ( yi yi ) SSGesamt MSGesamt n21 n 1 n 1 i 1 n SSRegression ( yˆi yi )2 2 Aerklärt ( yˆi yi ) SSRegression MSerklärt p p i 1 n Bestimmtheitsmaß r 2 2 erklärt 2 gesamt s s yˆi y i 1 n 1 n yi y 2 : i 1 n 1 n 2 yˆ y 2 y y 2 i 1 n i 1 2 1 Adjustiertes Bestimmtheitsmaß radjust FISHER-Prüfgröße xFempir = MS erklärt MS Residuen MS Residuen MSGesamt i i Formeln zur Statistik Statistik - Neff (1.4) Lineare Einfach-Regression ŷ = m x + b Summe der Abweichungsquadrate Regressionskoeffizienten m n i 1 i 1 n xi yi xi yi n xi 2 xi r Korrelationskoeffizient n AError ( yi yˆi ) 2 ei2 n x i b 2 1 m yi xi n n n xi yi xi yi 2 xi n yi 2 yi 2 2 Bestimmtheitsmaß r2 FISHER-Prüfgröße xFempir MSerklärt r2 n 2 2 1 r MSResiduen Die Nullhypothese wird verworfen, wenn xFempirisch > xFc, | 1 | (1.5) Multiple lineare Regression p Einflussfaktoren, = n-p-1 Freiheitsgrade Die Nullhypothese wird verworfen, wenn xFempirisch > xFc, | p | Signifikanter Beitrag des Einflussfaktors xk , wenn | tempirisch | > tc, | Tabelle 7.5a Signifikante Interkorrelation zwischen den Einflussfaktoren xj, xk , wenn rjk > 0,5. Signifikante Autokorrelation, wenn für die DURBIN-WATSON-Prüfgröße gilt: DW1 [DWunten ; DWoben] n DW1 e e i 2 2 i 1 i n e 2 i i 1 n e e DWk i k 1 2 i k i n e i 1 2 i (1.6) A'-Regression ŷ = a (x) + b Ansatzfunktionen (x) n Summe der Abweichungsquadrate A ( yi a ( x) b) 2 i 1 a ( xi ) b ( xi ) yi ( xi ) a ( xi ) nb yi 2 Normalgleichungen Regressionskoeffizienten a n yi ( xi ) yi ( xi ) n ( xi ) ( xi ) 2 2 b 1 a yi ( xi ) n n Formeln zur Statistik Statistik - Neff (1.7) VT–Regression Lineare Regressionsmodelle mit den Ansatzfunktionen ŷ(x) = a0 + a11(x) + a2 2(x) + … + ak k(x) i (x) VANDERMONDE-Matrix 1 0 ( x0 ) 1 ( x0 ) 1 0 ( x1 ) 1 ( x1 ) V 1 0 ( xm ) 0 ( xm ) VANDERMONDE-Gleichung V·a = y Interpolationswert für x =z ŷ(z) = a0 + a11(z) + a2 2(z) + … + ak k(z) k ( x0 ) k ( x1 ) k ( xm ) V TV a = V T y (2.1) Linearer Trend und Saisonschwankungen Komponentenmodell yi = ŷi + si + iri Saisonschwankungen si = yi – ŷi Irreguläre Restwerte iri = si – s j = yi – ŷî s j Prognosewerte p̂ = ŷ(xn+z) + sij sj 1 k sij k i 1 (2.2) Logistischer Trend S * ytransformiert ln 1 y n xi yi* xi yi* 1 m Regressionskoeffizienten m b yi* xi 2 n n n xi2 xi Ansatzfunktion yˆ S 1 e mx b (2.3) Gleitende Mittelwerte k vorausgehende und k nachfolgende Zeitreihenwerte Ungerade bzw. gerade Ordnung des gleitenden Mittelwerts m=i+ k-1 1 1 1 yi yi-k ym yi+k 2k 2 2 m=i- k-1 1 m=i+k yi ym 2k 1 m=i-k (2.4) Wachstumsfaktoren Indizes Wachstumsfaktoren Bk B0 y xi i yi 1 I 0,k (Berichtsperiode k, Basisperiode 0) Zuwachsrate ri = xi – 1 yn Mittlere Zuwachsrate y0 (Es liegen n+1 y-Werte y0, y1, …, yn vor) Mittlerer Wachstumsfaktor GM ( xi ) n n yn -1 y0 Formeln zur Statistik Statistik - Neff (2.5) Exponentielles Glätten n Beobachtungswerte, Glättungskonstante n 1 i 0 i 0 yˆ n 1 (1 )i yn-i (1 )i yn-i Prognosewerte, direkt yˆi 1 yi+1 (1 ) yˆi Geglättete Werte, rekursiv y yˆ y y Prognosen für i = n 2 THEIL'scher Ungleichheitskoeffizient U i i i 2 i 1 Die Prognose ist signifikant besser als die naive Prognose, wenn U < 1 (3.1) Konzentrationsmaße n Merkmalsträger mit den Mengen Mi und den Anteilen an der Merkmalsumme mi. Anteile an den Merkmalsträgern fi. Die k anteilsschwächsten Merkmalsträger. LORENZ-Kurve aus k m i i=1 KGini = 1 – 2 Aunten Gini-Koeffizient (3.2) speziell für hi k x | y k k hi i=1 1 n yi1 yi hi 2 i=1 mit Aunten mit 1 n 1 Aunten yi n i=1 2 1 n LORENZ-Kurve aus GINI-Koeffizient k n xk | yk k m i i=1 KGini = 1 – 2 Aunten n HERFINDAHL-Koeffizient K Herfindal mi2 i=1 (3.3) Häufigkeitsverteilungen Stichprobenumfang n, Anzahl der Klassen k, ersatzweise Klassenmitten xi* statt xi. n hi i Relative Häufigkeiten n h fi i Häufigkeitsdichten xi k Empirische Verteilungsfunktion Fi F ( xi ) hi h X xi i 1 Zentralwert (Median) Mittelwert xz = xi mit Fi = 0,5 k 1 n x xi ni xi hi n i 1 i 1 1 k 2 xi ni n x 2 für n ≤ 200. n 1 i 1 s v Variationskoeffizient x Varianz s2 Standardabweichung s s2 k s xi 2 hi x 2 für n > 200. i 1 Formeln zur Statistik (4.1) Wahrscheinlichkeit Statistik - Neff Statistische Konvergenz lim W lim(hn p) 0 1 Allgemeiner Additionssatz W(A B) = W(A) + W(B) W(AB) Allgemeiner Multiplikationssatz W(AB) = W(A) · W(B|A) Unabhängige Ereignisse W(AB) = W(A) · W(B) Verteilungsfunktion F W(a < X b) = F(b) – F(a) n n (Treffer-Wahrschlk. p) (4.2) Chi2-Unabhängigkeitstest k Zeilen (Anzahl der Kategorien von X), l Spalten (Anzahl der Kategorien von Y). Häufigkeiten nij für den i-ten Wert des Merkmals X und den j-ten Wert des Merkmals Y. Randhäufigkeiten n, ni, nj. ni n j Berechnete Häufigkeiten uij Voraussetzung für Test uij ≥ 5 Normierte Abweichungsquadrate 2 Chi -Prüfmaß 2 empirisch chi Freiheitsgrade für 2crit | qij n n ij uij 2 uij k 2 empirisch l qij i 1 j1 n ij uij uij 2 n n n i j k l ij n ni n j i 1 j1 2 n = (k - 1) · (l - 1) 2 2 Unabhängigkeitshypothese wird verworfen, wenn empirisch crit . (4.3) Diskrete Zufallsvariable k Erwartungswert xi fi i 1 k Erwartete Varianz 2 xi2 fi 2 i 1 Erwartete Standardabweichung 2 (4.4) Stichprobenmittel X X 2 ... X n X 1 kommt der Normalverteilung mit zunehmendem n immer näher. n Die Xi müssen nicht selbst normalverteilt sein. Die Xi müssen nicht völlig voneinander unabhängig sein. Erwartungswerte µ X µ( X ) Erwartete Varianzen ( X ) 1 ( X ) n σX σ n Formeln zur Statistik Statistik - Neff (4.5) Stetige Zufallsvariable Dichtefunktion f mit f(x) 0 und f ( x)dx 1 100% Verteilungsfunktion F F ( x2 ) x2 f ( x)dx W ( X x2 ) lim F ( x2 ) 1 100% x2 b Wahrscheinlichkeit W (a X b) f ( x)dx F (b) F (a ) [ F ( x2 )]ba a Erwartungswert µ x f ( x) dx Erwartete Varianz 2 x 2 f ( x) dx µ2 Erwartete Standardabweichung x µ 2 f ( x) dx 2 (5.1) Binomialverteilung Treffer-Wahrscheinlichkeit p, q = 1 – p, Anzahl der Treffer x. n n (n 1) (n 2) ... (n x 1) n! Binomialkoeffizienten x! x !(n x)! x n n Wahrscheinlichkeitsfunktion W(X = x) = fn,p(x) = p x q n x p x (1 p)n x x x k k n FBin | n | p (k ) f n, p ( x) p x q n x Verteilungsfunktion Tabelle 7.1 x 0 x 0 x Erwartungswert µ=np Erwartete Varianz 2 = n p q Erwartete Standardabweichung 2 (5.2) Hypergeometrische Verteilung N Anzahl der Elemente in der Grundgesamtheit, n Stichprobenumfang M Anzahl der Treffer in der Grundgesamtheit M = N p M M p . q 1 p 1 Treffer-Wahrscheinlichkeit N N M N M x nx W ( X x) f Hyp | n , N ,M ( x) Wahrscheinlichkeitsfunktion N n Erwartungswert µ = n p. N n Erwartete Varianz 2 = n p q . N 1 N n N n Erwartete Standardabweichung σHyp n p q σ Bin N 1 N 1 Formeln zur Statistik Statistik - Neff (5.3) POISSON-Verteilung µ µ und q 1 p 1 n n x x µ µ µ f Poi| µ ( x) e x! x ! eµ µ n p p Erwartungswert Wahrscheinlichkeitsfunktion µx µ e x 0 x ! k Verteilungsfunktion FPoi | µ (k ) Erwartete Varianz = µ Tabelle 7.2 (5.4) Normalverteilung 1 xµ σ 2 1 f Norm|μ,σ ( x) e 2 σ 2 Dichtefunktion x 1 xµ σ 2 1 W ( X x2 ) FNorm|μ,σ ( x2 ) e 2 σ 2 Verteilungsfunktion 2 dx (5.5) Standard-Normalverteilung 1 z2 1 12 z 2 Dichtefunktion fSN(z) = e 0, 4e 2 2 z 1 2 12 z 2 W ( Z z ) FSN ( z ) Verteilungsfunktion e dz 2 Erwartungswert µ=0 Standardabweichung = 1 xµ z bzw. x µ z Standard-Normalvariable x 0,5 µ Standardnormalvariable z mit Stetigkeitskorrektur z σ Tabelle 7.6 (5.6) Approximationsbedingungen Übergang von der wenn n/N ≤ 0,05 wenn n/p ≥ 1500 wenn n/N ≤ 0,05 und n/p ≥ 1500 Hypergeometrischen V. Binomial-V. Hypergeometrischen V. zur Binomial-V., zur POISSON-V., zur POISSON-V., Binomial-V Hypergeometrischen V. POISSON-V. STUDENT-t-V. zur Normalverteilung, wenn 2 = n p q > 9 zur Normalverteilung, wenn n/N ≤ 0,05 und 2 = n p q > 9 zur Normalverteilung, wenn µ = 2 > 9 zur Normalverteilung, wenn n > 30, bei normalverteilter Grundgesamtheit wenn n > 50, bei unbekannter Verteilung der Grundgesamtheit Formeln zur Statistik Statistik - Neff (5.7) Anpassung und Korrekturfaktoren µ, aus Grundgesamtheit, x , s aus Stichprobe Diskrete Zufallsvariable X Stichprobenmittel X n/N > 0,05: x 0,5 µ (Stetigkeitskorrektur) σ σ x µ σx z n σ n z N n N 1 korrigiert = · unbekannt, n < 30 bzw. n < 50 t xµ s bzw. t x µ n s (5.8) Chi2 - Anpassungstest k Klassen [xiunten ; xioben], i = 1, 2, …, k. Signifikanzniveau p ist die Anzahl der Parameter ( x , s) , die aus der Stichprobe ermittelt werden. Wahrscheinlichkeiten Wahrscheinlichkeiten Theoretische Häufigkeiten xioben x s W(–∞ < X ≤ xioben) = FSN(zi) wi = FSN(zi) – FSN(zi – 1) mit FSN(z0) = 0 ui = n · wi. Testgröße Prüfmaß Freiheitsgrade Entscheidung Standardnormalvariablen zi k 2 empirisch 2 ni ui i 1 crit | 1 – | 2 ui Tabelle 7.5 =k–p–1 2 2 Verteilungshypothese bestätigt, wenn empirisch crit. (6.1) Konfidenzintervall Intervall Intervall-Länge Abweichung µ x zc ; x zc n n µoben µunten 2 2 zc n x µ 2 Stichprobenumfang Kritischer Wert Signifikanzniveau z n c x µ x µ zc n D(zc) = 1 – Formeln zur Statistik (6.2) Hypothesentest Intervall Nullhypothese H0 Empirischer Wert Signifikanzniveau Statistik - Neff x µ z σX , µ z σX H0 wird verworfen, wenn zempirisch > zkritisch x µ zempirisch n σ D(zc) = 1 – (6.3) unbekannt, n < 30 bzw. n < 50 Kritischer Wert Signifikanzniveau x µ n s D (tc) = 1 – mit tempirisch = n – 1. (6.4) Stichprobe ohne Zurücklegen, n/N > 0,05 Standardweichung des Stichprobenmittels x Notwendiger Stichprobenumfang n N n N 1 n N 1 ( N 1) zc σ 2 Formeln zur Statistik (7.1 a) Statistik - Neff Formeln zur Statistik (7.1 b) Statistik - Neff Formeln zur Statistik (7.2) Statistik - Neff Formeln zur Statistik (7.3) Statistik - Neff Formeln zur Statistik (7.4) Statistik - Neff Formeln zur Statistik (7.5a) Statistik - Neff Formeln zur Statistik (7.5b) Statistik - Neff Formeln zur Statistik (7.6) Statistik - Neff Formeln zur Statistik (7.6) Statistik - Neff