Statistische Formeln und Tabellen für Studierende der Wirtschaftswissenschaften von Dr. rer. nat. Jürgen Vogel Ilmenau, April 2014 Technische Universität Ilmenau Fakultät für Wirtschaftswissenschaften und Medien Fachgebiet Quantitative Methoden der Wirtschaftswissenschaften Inhaltsverzeichnis I. Wahrscheinlichkeitsrechnung................................................................................. 1 1. Wahrscheinlichkeiten ......................................................................................... 1 1.1. Zufällige Ereignisse.................................................................................... 1 1.2. KOLMOGOROWsche Axiome ....................................................................... 1 1.3. Rechnen mit Wahrscheinlichkeiten............................................................ 2 1.4. LAPLACEsche Formel.................................................................................. 2 1.5. Geometrische Wahrscheinlichkeiten .......................................................... 2 1.6. Formeln der Kombinatorik ......................................................................... 2 1.7. Unabhängige Ereignisse und bedingte Wahrscheinlichkeiten ................... 3 2. Eindimensionale Verteilungen ........................................................................... 3 2.1. Diskrete Verteilungen................................................................................. 3 2.2. Stetige Verteilungen ................................................................................... 4 2.3. Momente..................................................................................................... 4 2.4. Spezielle Momente (Varianz, Schiefe, Exzess).......................................... 4 2.5. Weitere Kennwerte von Verteilungen ........................................................ 5 2.6. Spezielle diskrete Verteilungen.................................................................. 6 2.7. Spezielle stetige Verteilungen .................................................................... 7 2.8. Prüfverteilungen ......................................................................................... 8 2.9. BERNOULLI-Schema.................................................................................... 9 2.10. Normalverteilung.................................................................................... 9 2.11. Quantile von Prüfverteilungen ............................................................... 9 3. Zweidimensionale Verteilungen....................................................................... 10 3.1. Diskrete Verteilungen............................................................................... 10 3.2. Stetige Verteilungen ................................................................................. 11 3.3. Funktionen zweier Zufallsvariablen ......................................................... 11 3.4. Unabhängigkeit zweier Zufallsvariablen.................................................. 12 3.5. Kovarianz und Korrelationskoeffizient .................................................... 12 3.6. Zweidimensionale Normalverteilung ....................................................... 12 3.7. Faltung zweier Verteilungen .................................................................... 13 4. Grenzwertsätze ................................................................................................. 14 4.1. Approximation von Verteilungen............................................................. 14 4.2. Gesetz der großen Zahlen......................................................................... 14 4.3. Zentraler Grenzwertsatz ........................................................................... 14 II. Beschreibende Statistik ........................................................................................ 15 1. Häufigkeiten und Kennwerte für ein Merkmal ................................................ 15 1.1. Primäre Häufigkeitstabelle ....................................................................... 15 1.2. Sekundäre Häufigkeitstabelle................................................................... 15 1.3. LORENZkurve und LORENZ’sches Konzentrationsmaß............................. 16 1.4. Empirische Kennwerte für ein metrisch skaliertes Merkmal ................... 17 1.5. Empirische Kennwerte für ein ordinal skaliertes Merkmal...................... 17 1.6. Empirischer Kennwert für ein nominal skaliertes Merkmal .................... 18 1.7. Spezielle Mittelwerte................................................................................ 18 2. Häufigkeitstabellen und Kennwerte für zwei Merkmale.................................. 19 2.1. Korrelationskoeffizienten ......................................................................... 19 2.2. Kontingenztafeln ...................................................................................... 19 3. Trendbestimmung bei Zeitreihen ..................................................................... 21 3.1. Linearer Trend .......................................................................................... 21 3.2. Polynomialer Trend .................................................................................. 21 3.3. Symmetrisches gleitendes Mittel.............................................................. 21 3.4. Exponentielles Glätten.............................................................................. 21 4. Indizes............................................................................................................... 22 4.1. Indexformeln ............................................................................................ 22 4.2. Zerlegung von Indizes .............................................................................. 22 4.3. Bilateraler Preisvergleich USA - Deutschland ......................................... 23 5. Statistische Qualitätskontrolle .......................................................................... 24 5.1. Kontrollkarten........................................................................................... 24 5.2. Einfacher Stichprobenplan ....................................................................... 26 III. Schließende Statistik ............................................................................................ 27 1. Punktschätzungen ............................................................................................. 27 1.1. Wünschenswerte Eigenschaften von Punktschätzungen .......................... 27 1.2. Maximum-Likelihood-Methode ............................................................... 28 2. Bereichsschätzungen ........................................................................................ 28 2.1. Konfidenzintervalle für µ und σ 2 eines normalverteilten Merkmals....... 28 2.2. Konfidenzintervall für eine Wahrscheinlichkeit p ................................... 28 3. Signifikanztests................................................................................................. 29 3.1. Parametertests für ein normalverteiltes Merkmal..................................... 29 3.2. Test auf Wahrscheinlichkeit (Anteilswert)............................................... 30 3.3. Anpassungstests........................................................................................ 30 3.4. Tests auf Unabhängigkeit ......................................................................... 31 3.5. Zwei-Stichproben-Vergleiche für verbundene Merkmale........................ 31 3.6. Zwei-Stichprobenvergleiche für unabhängige Merkmale ........................ 32 4. Einfache lineare Regression ............................................................................. 34 4.1. Schätzungen nach der Methode der kleinsten Quadrate........................... 35 4.2. Konfidenzband für die Regressionsgerade............................................... 35 4.3. Konfidenzintervall für einen Zwischenwert............................................. 35 4.4. Prüfung des Regressionskoeffizienten ..................................................... 36 4.5. Prüfung der Regressionskonstante ........................................................... 36 5. Multivariate lineare Regression........................................................................ 36 5.1. Schätzung der Regressionskoeffizienten.................................................. 37 5.2. Test auf linearen Zusammenhang............................................................. 38 5.3. Multiple Korrelation................................................................................. 38 6. Nichtlineare Regression.................................................................................... 38 6.1. Polynomiale Regression ........................................................................... 38 6.2. Curvilineare Regression ........................................................................... 39 7. Varianzanalyse (Modell I, einfache Klassifikation)......................................... 40 IV. Tafeln.................................................................................................................... 41 1. Griechisches Alphabet...................................................................................... 41 2. Lineare Interpolation ........................................................................................ 41 3. Quantile der standardisierten Normalverteilung .............................................. 41 4. Zufallszahlen .................................................................................................... 42 5. Verteilungsfunktion der Standardnormalverteilung ......................................... 43 6. Quantile der t-Verteilung mit f Freiheitsgraden ............................................. 44 7. Quantile der χ²–Verteilung mit f Freiheitsgraden .......................................... 45 8. Quantile der F-Verteilung für α = 0,95 ........................................................... 47 9. Quantile der F-Verteilung für α = 0,99 ........................................................... 47 10. Kritische Werte bn;α für den Vorzeichentest .................................................... 48 11. Kritische Werte für den Korrelationskoeffizienten .......................................... 48 12. Kritische Werte für Schiefe und Exzess........................................................... 49 V. Literatur ................................................................................................................ 50 1. Lehrbücher und Aufgabensammlungen ........................................................... 50 2. Nachschlagewerke und Tabellen...................................................................... 50 3. Quellennachweis............................................................................................... 50 I. Wahrscheinlichkeitsrechnung I. Wahrscheinlichkeitsrechnung 1. Wahrscheinlichkeiten 1.1. Zufällige Ereignisse Ω ∅ ω {ω } Ergebnismenge = sicheres Ereignis unmögliches Ereignis Ergebnis eines zufälligen Versuchs ( ω ∈ Ω ) Elementarereignis A, B, Ai ⊂ Ω A∪ B ∪ Ai Ereignisse A oder B tritt ein mindestens eines der Ai tritt ein i A∩ B ∩ Ai A und B treten ein alle Ai treten ein i A A∩ B = ∅ A⊂ B A tritt nicht ein A und B sind miteinander unvereinbar A zieht B nach sich Es gilt: A∪ B = A∩ B DE MORGANsche Formeln A∩ B = A∪ B 1.2. KOLMOGOROWsche Axiome Ereignisfeld (σ-Algebra von Teilmengen von Ω) B Eine reellwertige Funktion P auf B heißt Wahrscheinlichkeitsmaß, wenn sie folgenden Axiomen genügt: (I) (II) P( A) ≥ 0 für alle A ∈ B, P (Ω) = 1 , ∞ ∞ i =1 i =1 (III) P(∪ Ai ) = ∑ P( Ai ) , wenn Ai ∩ Aj = ∅ für i ≠ j . [Ω, B, P] Wahrscheinlichkeitsraum P(A) Wahrscheinlichkeit des Ereignisses A∈ B 1 I. Wahrscheinlichkeitsrechnung 1.3. Rechnen mit Wahrscheinlichkeiten P (∅ ) = 0 0 ≤ P( A) ≤ 1 A ∩ B = ∅ ⇒ P ( A ∪ B ) = P( A) + P( B ) A ⊂ B ⇒ P( A) ≤ P( B ) P( A) = 1 − P ( A) P( A ∪ B ) = P( A) + P ( B ) − P( A ∩ B ) 1.4. LAPLACEsche Formel Ω bestehe aus n Elementen und das Ereignis A aus m. Sind alle Elementarereignisse gleich wahrscheinlich, gilt P( A) = m Anzahl der günstigen Fälle = n Anzahl aller Fälle 1.5. Geometrische Wahrscheinlichkeiten Es sei Ω ein ebenes Flächenstück mit endlichem Flächeninhalt. Die Funktion P mit P( A) = Flächeninhalt von A Flächeninhalt von Ω ist ein Wahrscheinlichkeitsmaß auf der σ-Algebra der BORELschen Teilmengen von Ω. 1.6. Formeln der Kombinatorik ohne Wiederholung Anzahl der Permutationen von n Elementen Anzahl der Kombinationen von k aus n (keine Berücksichtigung der Reihenfolge) Anzahl der Variationen von k aus n (Berücksichtigung der Reihenfolge) n! ⎛n⎞ ⎜k ⎟ ⎝ ⎠ ⎛ n + k − 1⎞ ⎜ k ⎟ ⎝ ⎠ n ⋅ ( n − 1) ⋅ … ⋅ ( n − k + 1) nk Dabei sind (für n, k ∈ {0,1, 2,...} und x ∈ n ! = n ⋅ ( n − 1) ⋅ ... ⋅ 1 ⎛ x ⎞ x ⋅ ( x − 1) ⋅ ... ⋅ ( x − k + 1) ⎜k ⎟ = k ⋅ (k − 1) ⋅ ... ⋅ 1 ⎝ ⎠ mit Wiederholung n! n1 !⋅ n2 !⋅ ... ⋅ nk ! ) „n Fakultät“ mit 0! = 1 ⎛ x⎞ Binomialkoeffizient „x über k“ mit ⎜ ⎟ = 1 ⎝0⎠ 2 I. Wahrscheinlichkeitsrechnung 1.7. Unabhängige Ereignisse und bedingte Wahrscheinlichkeiten P( A ∩ B ) = P ( A) ⋅ P( B ) P( A ∩ B ) P( A | B ) = P( B) Es gilt: Unabhängigkeit von A und B bedingte Wahrscheinlichkeit von A unter B ( P( B ) > 0 ) A ∩ B = ∅ ⇒ P( A | B) = 0 B ⊂ A ⇒ P( A | B) = 1 A und B unabhängig ⇒ A und B unabhängig Es sei B1 , B2 ,..., Bn eine Zerlegung von Ω mit P( Bi ) > 0 . Dann gilt: n P( A) = ∑ P ( A | Bi ) ⋅ P( Bi ) Formel der totalen Wahrscheinlichkeit i =1 P( Bi | A) = P( A | Bi ) ⋅ P( Bi ) n ∑ P( A | B ) ⋅ P( B ) j =1 j BAYES'sche Formel j (i = 1, ..., n ) 2. Eindimensionale Verteilungen FX ( x ) = P( X ≤ x ) Verteilungsfunktion der Zufallsvariablen X Es gilt: 0 ≤ FX ( x ) ≤ 1 für alle x ∈ lim FX ( x ) = 0 x →−∞ lim FX ( x ) = 1 x →+∞ P( a < X ≤ b) = FX (b) − FX ( a ) 2.1. Diskrete Verteilungen x1 , x2 , x3 ,... Funktionswerte der Zufallsvariablen X pi = P( X = xi ) Einzelwahrscheinlichkeiten mit ∑p i i Die Verteilungsfunktion ist hier FX ( x) = ∑p i i:xi ≤x 3 . =1 I. Wahrscheinlichkeitsrechnung 2.2. Stetige Verteilungen ∞ fX Dichte von X, eine nicht negative Funktion mit ∫ f X ( x )dx = 1 −∞ x Die Verteilungsfunktion ist hier FX ( x ) = ∫ f X (t )dt . −∞ Es gilt: P( X = x0 ) = 0 f X ( x) = für jedes x0 ∈ d FX ( x ) für alle Stetigkeitspunkte x von f X dx 2.3. Momente +∞ EX = ∫ x dF X Erwartungswert von X ( x) −∞ Speziell für diskretes X: E ( X ) = ∑ xi ⋅ pi +∞ stetiges X: E ( X ) = ∫ x⋅ f X ( x)dx −∞ i Für eine stetige Funktion g gilt +∞ Eg ( X ) = ∑ g ( xi ) ⋅ pi bzw. Eg ( X ) = μ Anf ;k = E ( X k ) μ Zen ;k = E ( X − EX ) ∫ g ( x) ⋅ f X ( x )dx −∞ i k-tes Anfangsmoment von X (k = 1, 2, ... ) k k-tes Zentralmoment von X (k = 1, 2, ... ) Wenn μ Anf ;n existiert, so existieren auch μ Anf ;k und μ Zen ;k für alle k ≤ n. 2.4. Spezielle Momente (Varianz, Schiefe, Exzess) μ Zen;2 = Var ( X ) = E ( X − E ( X )) 2 Streuung (= Varianz) von X Speziell für diskretes X: Var ( X ) = ∑ ( xi − E ( X )) 2 ⋅ pi i +∞ stetiges X: Var ( X ) = ∫ ( x − E ( X )) −∞ 4 2 f X ( x)dx I. Wahrscheinlichkeitsrechnung Es gilt: Var ( X ) = E ( X 2 ) − ( E ( X )) 2 . Verschiebungssatz von STEINER μZen;2 = Var ( X ) = E ( X − E ( X )) 2 Standardabweichung von X μ Zen;3 ( μ Zen;2 ) 3 = 2 E ( X − E ( X ))3 ( Var ( X ) ) Schiefe von X 3 μ Zen;4 E ( X − E ( X )) 4 − 3 = −3 4 ( μ Zen;2 ) 2 Var ( X ) ( Es gilt: ) Exzess (= Wölbung) von X E (a + b ⋅ X ) = a + b ⋅ E ( X ) Var (a + b ⋅ X ) = b 2 ⋅ Var ( X ) P( X − E ( X ) ≥ ε ) ≤ Var ( X ) ε2 für jedes ε > 0 TSCHEBYSCHEW-Ungleichung 2.5. Weitere Kennwerte von Verteilungen Qα Quantil der Ordnung α (0 < α < 1) ist jede Zahl Qα , für die FX (Qα − 0) ≤ α ≤ FX (Qα ) gilt. Ist FX streng monoton, so ist Qα eindeutig die Zahl, für die FX (Qα ) = α . Spezialfälle: Med ( X ) = Q0,5 Median (= Zentralwert) Q0,25 , Q0,75 Quartile Für einen Median gilt stets P( X < Q0,5 ) ≤ Mod ( X ) 1 1 und P ( X > Q0,5 ) ≤ . 2 2 Modalwert ist ein Wert der Zufallsvariablen X, für den die Einzelwahrscheinlichkeit bzw. die Dichte ein lokales Maximum besitzt. Nach der Anzahl der Modalwerte heißt eine Verteilung uni-, bi- oder multimodal. 5 I. Wahrscheinlichkeitsrechnung 2.6. Spezielle diskrete Verteilungen Name Parameter Einzelwahrscheinlichkeiten P(X=k) ErwarVarianz tungswert Binomialverteilung n ∈ {1, 2,...} 0 < p <1 ⎛n⎞ k n −k ⎜ k ⎟ p (1 − p ) = B( k | n; p ) ⎝ ⎠ für 0 ≤ k ≤ n n⋅ p n ⋅ p ⋅ (1 − p ) 1− 2 p np(1 − p ) 1 − 6 p(1 − p ) np(1 − p ) 0 < p <1 (1 − p ) k ⋅ p = Geo( k | p ) für k = 0,1, 2,... 1− p p 1− p p2 2− p 1− p 6+ r >0 0 < p <1 ⎛ r + k − 1⎞ k r ⎜ k ⎟ (1 − p ) p = NB( k | r; p ) ⎝ ⎠ für k = 0, 1, 2, ... r ⋅ (1 − p ) p r ⋅ (1 − p ) p2 geometrische Verteilung negative Binomialverteilung hypergeometrische Verteilung POISSONverteilung N , M , n ∈ {1, 2,...} 0≤ M ≤ N 0≤n≤ N ⎛ M ⎞⎛ N − M ⎞ ⎛ N ⎞ ⎜ k ⎟ ⎜ n − k ⎟ ⎜ n ⎟ = Hy ( k | N ; M ; n ) ⎝ ⎠⎝ ⎠ ⎝ ⎠ max(0, n + M − N ) ≤ k ≤ min( M , n ) λk 0 > λ n⋅ ⋅ e − λ = Po( k | λ ) λ k! für k = 0,1, 2,... 6 M N n λ M N ⎛ M ⎞ N −n ⎜1 − ⎟ N ⎠ N −1 ⎝ Schiefe 2− p r ⋅ (1 − p ) Exzess p2 1− p p2 − 6 p + 6 r ⋅ (1 − p ) ( N − 2 M )( N − 2n ) ( N − 2) nM ( N − M )( N − n ) N −1 (kompliziert) 1 1 λ λ I. Wahrscheinlichkeitsrechnung 2.7. Spezielle stetige Verteilungen Name Parameter gleichmäßige a , b ∈ Verteilung a<b Exponentialλ>0 verteilung μ∈ Normalverteilung σ2 >0 ERLANGVerteilung GammaVerteilung k ∈ {1, 2,...} λ>0 p>0 λ>0 Kurzbezeichnung G ( a; b) Ex ( λ ) λ e − λ x für x ≥ 0 ; 0 sonst N ( μ ;σ ) 2 Erl ( k ; λ ) Γ ( p; λ ) Wahrscheinlichkeitsdichte f(x) 1 für a ≤ x ≤ b ; 0 sonst b−a ⎛ 1 ⎛ x − μ ⎞2 ⎞ 1 exp ⎜ − ⎜ ⎜ 2 ⎝ σ ⎟⎠ ⎟⎟ σ 2π ⎝ ⎠ λk ( k − 1)! λ p Γ( p ) e − λ x x k −1 für x > 0 ; 0 sonst e − λ x x p −1 für x > 0 ; 0 sonst ∞ Erwartungswert a+b 2 1 Varianz (b − a ) 2 12 1 λ λ2 2 6 μ σ2 0 0 k k λ λ p p λ λ2 2 Schiefe 0 2 k 2 p Exzess 6 − 5 6 k 6 p Dabei ist die Gammafunktion definiert durch Γ( p ) = ∫ t p −1e − t dt . Es gilt Γ( p ) = ( p − 1) Γ( p − 1), Γ(1) = 1, Γ( 12 ) = π , Γ( k ) = ( k − 1)! für k = 1, 2,... 0 7 I. Wahrscheinlichkeitsrechnung 2.8. Prüfverteilungen Name Parameter Wahrscheinlichkeitsdichte f(x) ⎛ − x2 ⎞ 1 exp ⎜ ⎟ 2π ⎝ 2 ⎠ standardisierte Normalverteilung t-Verteilung ⎛ f +1⎞ f +1 Γ⎜ 2 − 2 ⎟ ⎛ ⎝ 2 ⎠ ⋅ 1+ x ⎞ ⎜ f ⎟⎠ ⎛ f ⎞ ⎝ Γ⎜ ⎟ π ⋅ f ⎝2⎠ f Freiheitsgrade f ∈ {1, 2,...} χ²-Verteilung x f Freiheitsgrade f ∈ {1, 2,...} F-Verteilung f x −1 − 2 2 e ⎛ f ⎞ 2 Γ⎜ ⎟ ⎝2⎠ f 2 x Die Verteilungsfunktion Φ ( x ) = ∫ −∞ Streuung Modalwert 0 1 0 0 für f ≥ 2 für x > 0 ⎛ fZ + f N ⎞ ⎛ fZ f Z Zählerfreiheitsgrade Γ ⎜ ⎟⎜ ⎝ 2 ⎠ ⎝ fN f N Nennerfreiheitsgrade ⎛ Γ⎜ f Z , f N ∈ {1, 2,...} ⎝ Erwartungswert f fZ − f für f ≥ 3 f −2 2f 0 f − 2 für f ≥ 3 0 für f ≤ 2 fZ + fN 2 ⎞ 2 f2Z −1 ⎛ fZ ⎞ ⎟ x ⎜1 + f x ⎟ N ⎠ ⎝ ⎠ fZ ⎞ ⎛ fN ⎞ ⎟Γ⎜ ⎟ 2 ⎠ ⎝ 2 ⎠ für x ≥ 0 fN fN − 2 für f N ≥ 3 2 f N2 ( f Z + f N − 2) f Z ( f N − 2) 2 ( f N − 4) für f N ≥ 5 f N ( f Z − 2) für f Z ≥ 2 f Z ( f N + 2) 0 für f Z = 1 1 −2t e dt der standardisierten Normalverteilung ist vertafelt in IV.5. Die Γ-Funktion wird in I.2.7. definiert. 2π 2 8 I. Wahrscheinlichkeitsrechnung 2.9. BERNOULLI-Schema In einem Versuch kann das Ereignis A mit der Wahrscheinlichkeit p=P(A) eintreten. Der Versuch wird unabhängig wiederholt, das Eintreten von A als Erfolg bezeichnet. Zufallsvariable Anzahl der Erfolge in n Versuchen Anzahl der Misserfolge vor dem ersten Erfolg Anzahl der Misserfolge vor dem n-ten Erfolg Verteilung B(n; p) Geo(p) NB(n; p) 2.10. Normalverteilung X ∼ N ( μ ;σ 2 ) X ist normalverteilt mit μ = E ( X ) und σ 2 = Var ( X ) > 0. Dichte der Normalverteilung μ −σ μ μ +σ P( μ − σ ≤ X ≤ μ + σ ) ≈ 0,6827 Es gilt für ein X ∼ N ( μ ;σ ) : 2 Z= X −μ σ Z ∼ N (0;1) P( μ − 2σ ≤ X ≤ μ + 2σ ) ≈ 0,9545 P( μ − 3σ ≤ X ≤ μ + 3σ ) ≈ 0,9973 standardisiertes X Z ist standardnormalverteilt, d. h. mit μ = 0 und σ 2 = 1 . X ∼ N ( μ ;σ 2 ) ⇔ a + bX ∼ N (a + bμ ; b2σ 2 ) Es gilt: X ∼ N ( μ ;σ 2 ) ⇔ Z = X −μ σ ∼ N (0;1) 2.11. Quantile von Prüfverteilungen α Ordnung des Quantils (siehe Abschnitt I.2.5.) zα Quantil der standardisierten Normalverteilung (vertafelt in IV.3.) Es gilt z1−α = − zα . 9 I. Wahrscheinlichkeitsrechnung Dichte der Prüfverteilung α -0,5 t f ;α 5,5 Quantil der t-Verteilung mit f Freiheitsgraden (vertafelt in IV.6.) t f ;1−α = −t f ;α . Es gilt χ 2f ;α Q 3,5α 1,5 Quantil der χ 2 -Verteilung mit f Freiheitsgraden (vertafelt in IV.7.) Für f > 30 ist χ 2 f ;α ⎛ 2 2 ⎞ ≈ f ⋅ ⎜1 − + zα ⋅ ⎟ 9f ⎠ ⎝ 9f 3 eine gute Näherung. F f Z ; f N ;α Quantil der F-Verteilung mit den Freiheitsgraden f Z und f N (vertafelt in IV.8. und IV.9.) Ff Z ; f N ;1−α = Es gilt 3. 1 Ff N ; f Z ;α . Zweidimensionale Verteilungen 3.1. Diskrete Verteilungen x1 , x2 ,..., xk y1 , y2 ,..., ym Werte der Zufallsvariablen X Werte der Zufallsvariablen Y ⎛X⎞ pij = P( X = xi , Y = y j ) Einzelwahrscheinlichkeiten des Zufallsvektors ⎜ ⎟ ⎝Y ⎠ Verteilungstabelle: Y y1 Es gilt: y2 ... ym X x1 x2 p11 p12 ... p1m p21 p22 ... p2 m p1 • xk pk 1 pk 2 ... pkm pk • p•1 p• 2 ... p• m p•• 10 p2 • 0 ≤ pij ≤ 1 k m p•• = ∑∑ pij = 1 i =1 j =1 I. Wahrscheinlichkeitsrechnung Randverteilungen m Einzelwahrscheinlichkeiten von X : P( X = xi ) = pi • = ∑ pij j =1 k Einzelwahrscheinlichkeiten von Y : P(Y = y j ) = p• j = ∑ pij i =1 3.2. Stetige Verteilungen f ( x, y ) gemeinsame Dichte von X und Y ∞ ∞ Es gilt ∫∫ x f ( x, y )dydx = 1 und P ( X < x, Y < y ) = y ∫∫ f ( s, t )dtds . −∞ −∞ −∞ −∞ Randverteilungen ∞ f X ( x) = Dichte von X : ∫ f ( x, y )dy −∞ ∞ fY ( y ) = Dichte von Y : ∫ f ( x, y )dx −∞ 3.3. Funktionen zweier Zufallsvariablen Es sei g | gilt 2 → eine stetige Funktion. Dann ist g ( X , Y ) ein Zufallsvariable und es k m Eg ( X , Y ) = ∑∑ g ( xi , y j ) pij im diskreten Fall, i =1 j =1 ∞ ∞ Eg ( X , Y ) = ∫ ∫ g ( x, y ) f ( x, y )dydx im stetigen Fall. −∞ −∞ Speziell ist k m E ( X ⋅ Y ) = ∑∑ xi ⋅ y j ⋅ pij bzw. E ( X ⋅ Y ) = i =1 j =1 Es gilt: ∞ ∞ ∫ ∫ x ⋅ y ⋅ f ( x, y ) dydx . −∞ −∞ E ( X + Y ) = E ( X ) + E (Y ) ( E X ⋅ Y ) 2 ≤ E ( X 2 ) ⋅ E (Y 2 ) 11 CAUCHY-SCHWARZ-Ungleichung I. Wahrscheinlichkeitsrechnung 3.4. Unabhängigkeit zweier Zufallsvariablen X und Y sind unabhängig voneinander, wenn pij = pi • ⋅ p• j für alle i = 1,..., k ; j = 1,..., m im diskreten Fall bzw. f ( x, y ) = f X ( x ) ⋅ fY ( y ) für alle x, y ∈ im stetigen Fall. 3.5. Kovarianz und Korrelationskoeffizient Cov( X , Y ) = E (( X − E ( X ))(Y − E (Y ))) Kovarianz von X und Y Cov( X , Y ) = Cov(Y , X ) Cov( X , Y ) = E ( X ⋅ Y ) − E ( X ) ⋅ E (Y ) Var ( X + Y ) = Var ( X ) + 2Cov( X , Y ) + Var (Y ) Es gilt: ρ XY = Cov( X , Y ) Var ( X ) ⋅ Var (Y ) Korrelationskoeffizient von X und Y −1 ≤ ρ XY ≤ +1 Es gilt: X , Y unabhängig ⇒ ρ XY = 0 Wenn ρ XY = 0 , so heißen X und Y unkorreliert und es gilt E ( X ⋅ Y ) = E ( X ) ⋅ E (Y ) und Var ( X + Y ) = Var ( X ) + Var (Y ) . 3.6. Zweidimensionale Normalverteilung −1 ⎧⎪ −1 ⎡ ( x − μ ) 2 ( x − μ x )( y − μ y ) ( y − μ y ) 2 ⎤ ⎫⎪ (1 − ρ 2 ) 2 x − + f ( x, y ) = exp ⎨ 2 ρ ⎥⎬ 2 ⎢ 2 2πσ xσ y σ xσ y σ y2 ⎦ ⎭⎪ ⎪⎩ 2(1 − ρ ) ⎣ σ x Dichte der zweidimensionalen Normalverteilung ( x, y ∈ 12 ) I. Wahrscheinlichkeitsrechnung Die Parameter sind μ x = E ( X ), μ y = E (Y ), σ x2 = Var ( X ), σ y2 = Var (Y ), ρ = ρ XY . X ∼ N(μ x ;σ x2 ) ⎛X⎞ Wenn ⎜ ⎟ normalverteilt ist, gilt: ⎝Y ⎠ Y ∼ N(μ y ;σ y2 ) X + Y ∼ N ( μ x + μ y ;σ x2 + 2 ρσ xσ y + σ y2 ) 3.7. Faltung zweier Verteilungen X und Y seien zwei unabhängige Zufallsvariablen mit den Verteilungsfunktionen FX bzw. FY . FX +Y Faltung von X und Y (= Verteilungsfunktion von X+Y ) ∞ Es gilt ∫F FX +Y ( z ) = X ∞ ( z − y )dFY ( y ) = −∞ ∫ F ( z − x )dF Y X −∞ Speziell für ¾ X und Y diskret: P( X + Y = z ) = ∑ P( X = xi ) P(Y = z − xi ) i ∞ ¾ X und Y stetig: f X +Y ( z ) = ∫ f X ( x ) fY ( z − x )dx −∞ Faltung einiger Verteilungen ( X und Y unabhängig) X N ( μ1;σ 12 ) Po( λ1 ) Y N ( μ2 ;σ 22 ) Po( λ2 ) X+Y N ( μ1 + μ2 ;σ 12 + σ 22 ) Po( λ1 + λ2 ) χ 2 ( f1 ) Γ( p1 ; λ ) Ex ( λ ) χ 2 ( f2 ) Γ( p2 ; λ ) Ex ( λ ) χ 2 ( f1 + f 2 ) Γ( p1 + p2 ; λ ) Erl (2; λ ) B( n1 ; p ) NB( r1; p ) B( n2 ; p ) NB( r2 ; p ) B( n1 + n2 ; p ) NB( r1 + r2 ; p ) 13 ( x) . I. Wahrscheinlichkeitsrechnung 4. Grenzwertsätze 4.1. Approximation von Verteilungen Einzelwahrscheinlichkeit ersetze durch wenn Hy ( k | N , M , n ) B ( k | n, p = M ) N Po( k | λ = np ) 0,1 < ⎛ m + 12 − np ⎞ ⎛ l − 12 − np ⎞ Φ⎜ − Φ ⎟ ⎜ ⎟ ⎝ np (1 − p ) ⎠ ⎝ np (1 − p ) ⎠ n ⋅ p ⋅ (1 − p ) > 9 B ( k | n, p ) m ∑ B ( k | n, p ) k =l M n < 0,9 und < 0,05 N N n ≥ 1500 ⋅ p und n ⋅ p ≤ 10 4.2. Gesetz der großen Zahlen Es sei X 1 , X 2 ,... eine Folge unabhängiger, identisch verteilter Zufallsvariablen. Wenn der Erwartungswert μ = EX i der Zufallsvariablen X i existiert, dann gilt mit Wahrscheinlichkeit 1 lim n →∞ X 1 + X 2 + ... + X n =μ . n Gesetz der großen Zahlen von KOLMOGOROW 4.3. Zentraler Grenzwertsatz Es sei X 1 , X 2 ,... eine Folge unabhängiger, identisch verteilter Zufallsvariablen. Wenn der Erwartungswert μ = E ( X i ) und die Varianz σ 2 = Var ( X i ) der Zufallsvariablen X i existieren, dann gilt für alle x ∈ ⎛ X + X 2 + ... + X n − n ⋅ μ ⎞ lim P ⎜ 1 ≤ x ⎟ = Φ( x) , n →∞ σ⋅ n ⎝ ⎠ wobei Φ die Verteilungsfunktion der standardisierten Normalverteilung ist. 14 Zentraler Grenzwertsatz von LINDEBERG / LÈVY II. Beschreibende Statistik II. Beschreibende Statistik 1. Häufigkeiten und Kennwerte für ein Merkmal Merkmal X x1 , x2 ,..., xn Stichproben- oder Beobachtungswerte zum Merkmal X Stichproben- oder Beobachtungsumfang n 1.1. Primäre Häufigkeitstabelle a1 , a2 ,..., ak Ausprägungen des Merkmals X h j = h( a j ) absolute Häufigkeit der Ausprägung a j fj = hj n relative Häufigkeit der Ausprägung a j Ausprä- absol. gung Hfgk. a1 h1 a2 h2 relat. Hfgk. f1 f2 ak hk fk 1 n Für ordinal skalierte Beobachtungswerte gelte a1 < a2 < … < ak . Dann sind die folgenden Bezeichnungen sinnvoll: j H j = ∑ hi absolute Summenhäufigkeit bis einschließlich zur Ausprägung aj Fj = ∑ fi relative Summenhäufigkeit bis einschließlich zur Ausprägung aj i =1 j i =1 k Es gilt H k = ∑ hi = n k Fk = ∑ f i = 1 , vgl. Tabelle oben. und i =1 i =1 1.2. Sekundäre Häufigkeitstabelle Die Beobachtungswerte seien metrisch skaliert und für die Klassengrenzen gi gelte g0 < g1 < ... < g k . Klasse [ g0 , g1 ] ( g1 , g 2 ] ( g k −1 , g k ] Klassenmitte a1 a2 ak absolute Häufigkeit h1 h2 relative Häufigkeit f1 f2 hk fk n 1 15 absolute Summenhfgk. H1 H2 Hk = n relative Summenhfgk. F1 F2 Fk = 1 II. Beschreibende Statistik k aj = Anzahl der Klassen g j −1 + g j 2 Mitte der j-ten Klasse hj fj = Faustformel von STURGESS: k ≈ 1 + 1, 44 ⋅ ln n absolute Häufigkeit der j-ten Klasse hj n relative Häufigkeit der j-ten Klasse j H j = ∑ hi absolute kumulative Häufigkeit der j-ten Klasse Fj = ∑ fi relative kumulative Häufigkeit der j-ten Klasse b j = g j − g j −1 Breite der j-ten Klasse i =1 j i =1 Gilt b1 = b2 = ... = bk , handelt es sich um eine äquidistante Klasseneinteilung. 1.3. LORENZkurve und LORENZ’sches Konzentrationsmaß Vorausgesetzt sind metrische skalierte Beobachtungswerte mit den Ausprägungen 0 < a1 < a2 < ... < ak . 11 LORENZkurve S k -1 : S2 S1 0 F1 F1 Fj 11 relative Summenhäufigkeit (siehe Abschnitt II.1.1.) k n j =1 i =1 GS = ∑ a j h j = ∑ xi Sj = F 2 ... Fk-1 F k -1 F2 1 j ∑ ai hi GS i =1 Summe aller Beobachtungswerte relative Summe der Beobachtungswerte bis zur j-ten Ausprägung ⎡ 1 k ⎤ GINI-Koeffizient LKM = ⎢ F j −1 + F j ) ⋅ a j h j ⎥ − 1 mit F0 = 0 ( ∑ GS = 1 j ⎣ ⎦ 1 k = 1 − ∑ ( S j −1 + S j ) ⋅ h j mit S0 = 0 n j =1 n normiertes LORENZ’sches Konzentrationsmaß LKM norm = LKM n −1 Im Falle einer sekundären Häufigkeitsverteilung sind die Ausprägungen aj durch die Klassenmitten a j zu ersetzen. 16 II. Beschreibende Statistik 1.4. Empirische Kennwerte für ein metrisch skaliertes Merkmal x= 1 n 1 k x = a jh j ∑ i n∑ n i =1 j =1 arithmetisches Mittel s2 = 1 n ( xi − x ) 2 ∑ n − 1 i =1 empirische Streuung (= empirische Varianz) s2 = Es gilt 1 ⎛ n 2 1 ⎛ k 2 2⎞ 2⎞ − ⋅ = x n x ⎜ ∑a j ⋅ hj − n ⋅ x ⎟ . ∑ i ⎜ ⎟ n − 1 ⎝ i =1 ⎠ n − 1 ⎝ j =1 ⎠ s = s2 empirische Standardabweichung s v = ⋅ 100% Variationskoeffizient x 1 n 1 k M Anf ,l = ∑ xil = ∑ a lj ⋅ h j empirisches Anfangsmoment l-ter Ordnung n i =1 n j =1 M Zen ,l = 1 n 1 k l x − x = ( ) ∑ i ∑ (a j − x )l ⋅ h j empirisches Zentralmoment l-ter Ordnung n i =1 n j =1 M Anf ,1 = x , M Zen ,2 = Es gilt Sch = M Zen ,3 (M Zen ,2 ) 3 n −1 2 ⎛ 1 n 2 ⎞ ⋅ s = ⎜ ∑ xi ⎟ − x 2 . n ⎝ n i =1 ⎠ empirische Schiefe 2 Interpretation: Sch = 0 symmetrische Häufigkeitsverteilung Sch > 0 rechtsschiefe Häufigkeitsverteilung Sch < 0 linksschiefe Häufigkeitsverteilung Exz = M Zen ,4 ( M Zen,2 ) 2 − 3 empirischer Exzess (= empirische Wölbung) Interpretation: Exz = 0 normal gewölbte Häufigkeitsverteilung Exz > 0 spitz gewölbte Häufigkeitsverteilung Exz < 0 flach gewölbte Häufigkeitsverteilung Sind die Beobachtungswerte zu einer sekundären Häufigkeitstabelle zusammengefasst worden, so lassen sich die obigen Kennwerte nur näherungsweise bestimmen. In diesem Fall ersetze man in den Formeln die Ausprägungen a j durch die Klassenmitten a j . 1.5. Empirische Kennwerte für ein ordinal skaliertes Merkmal x1* , x2* ,..., xn* Variationsreihe (geordnete Beobachtungswerte mit x1* ≤ ... ≤ xn* ) R = xn* − x1* Spannweite 17 II. Beschreibende Statistik ⎧ xn* + xn* +1 2 ⎪⎪ 2 , falls n gerade 2 =⎨ ⎪ x*n +1 , falls n ungerade ⎪⎩ 2 xMed x1 x3 4 4 empirischer Median (= Zentralwert) ⎧ xn* + xn* +1 4 ⎪⎪ 4 , falls n durch 4 teilbar =⎨ 2 ⎪ x *n sonst ⎪⎩ ⎡⎢ 4 ⎤⎥ unteres Quartil ⎧ x3*n + x3*n +1 4 ⎪⎪ 4 , falls n durch 4 teilbar =⎨ 2 ⎪ x*3n sonst ⎪⎩ ⎡⎢ 4 ⎤⎥ oberes Quartil Dabei bedeutet ⎡⎢...⎤⎥ Aufrunden auf die nächste ganze Zahl. Q = x3 − x 1 4 Quartilsabstand 4 1.6. Empirischer Kennwert für ein nominal skaliertes Merkmal Modalwert (= die häufigste Ausprägung oder Klassenmitte) xMod 1.7. Spezielle Mittelwerte n x gew = ∑g ⋅ x i i =1 n ∑g i =1 xhar = i i n 1 1 1 + + ... + x1 x2 xn xgeo = n x1 ⋅ x2 ⋅ ... ⋅ xn Es gilt stets gewogenes Mittel (mit den Gewichten gi > 0 ) harmonisches Mittel (wenn alle xi > 0 ) geometrisches Mittel (wenn alle xi > 0 ) xhar ≤ x geo ≤ x . Anwendung des geometrischen Mittels auf Wachstumsfaktoren einer zeitlichen Folge x0 , x1 ,..., xt ,... : x ct = t Wachstumsfaktor (t = 1, 2,..., n ) xt −1 18 II. Beschreibende Statistik rt = ( ct − 1) ⋅ 100% Wachstumsrate cgeo = n c1 ⋅ c2 ... ⋅ cn = n r = ( cgeo − 1) ⋅ 100% 2. xn x0 (t = 1, 2,..., n ) mittlerer Wachstumsfaktor mittlere Wachstumsrate Häufigkeitstabellen und Kennwerte für zwei Merkmale ( x1 , y1 ),( x2 , y2 ),...,( xn , yn ) Beobachtungspaare zu den Merkmalen X und Y 2.1. Korrelationskoeffizienten 1 n 1 ⎛ n ⎞ − − = ( )( ) x x y y xi yi − n ⋅ x ⋅ y ⎟ empirische Kovarianz ∑ ∑ i i ⎜ n − 1 i =1 n − 1 ⎝ i =1 ⎠ s empirischer Korrelationskoeffizient (nach BRAVAIS und PEARSON) rxy = x , y sx ⋅ s y sx , y = Dabei sind s x und s y die empirischen Standardabweichungen der Merkmale X bzw. Y. Rg ( xi ) Rg ( yi ) Rangzahl des i-ten Beobachtungswertes in der x-Reihe Rangzahl des i-ten Beobachtungswertes in der y-Reihe n rSP = ∑ Rg ( x ) ⋅ Rg ( y ) i =1 i i − cn mit cn = n(n + 1) 2 4 ⎡ n ⎤ ⎡ n ⎤ 2 2 ( ) Rg x − c i n ⎥ ⋅ ⎢ ∑ Rg ( yi ) − cn ⎥ ⎢∑ ⎣ i =1 ⎦ ⎣ i =1 ⎦ Rangkorrelationskoeffizient von SPEARMAN Falls in der x-Reihe und in der y-Reihe kein Rang mehrfach auftritt, gilt n rSP = 1 − 6 ⋅ ∑ ( Rg ( xi ) − Rg ( yi )) 2 i =1 n(n 2 − 1) 2.2. Kontingenztafeln a1 , a2 ,..., ak b1 , b2 ,..., bm hij Ausprägungen des Merkmals X Ausprägungen des Merkmals Y absolute Häufigkeit der Ausprägung (ai , b j ) in der Stichprobe ( x1 , y1 ), ( x2 , y2 ),...,( xn , yn ) . 19 II. Beschreibende Statistik Y b1 b2 bm X a1 a2 h11 h12 h21 h22 h1m h2m h1 • ak hk 1 hk 2 hkm hk • h•1 h• 2 h• m h•• Kontingenztafel vom Format k × m h2 • m hi• = ∑ hij Summe der i-ten Zeile j =1 k h• j = ∑ hij Summe der j-ten Spalte h•• = ∑∑ hij = n Summe aller Häufigkeiten i =1 k m i =1 j =1 eij = hi• ⋅ h• j Erwartungshäufigkeit n k m χ 2 = ∑∑ ( hij − eij ) 2 i =1 j =1 ⎡⎛ k hij2 j =1 hi • h• j m χ 2 = n ⋅ ⎢⎜⎜ ∑∑ Es gilt C= PEARSONsches Chiquadrat eij ⎣⎢⎝ i =1 χ2 n + χ2 Ckorr = ⎞ ⎤ ⎟⎟ − 1⎥ . ⎠ ⎦⎥ Kontingenzkoeffizient min( k , m) ⋅C min( k , m) − 1 korrigierter Kontingenzkoeffizient 0 ≤ Ckorr ≤ 1 . Es gilt stets Für die 2x2-Kontingenztafel: h11 ⋅ h22 − h12 ⋅ h21 h11 ⋅ h22 + h12 ⋅ h21 h ⋅h − h ⋅h ϕ = 11 22 12 21 h1• ⋅ h2 • ⋅ h•1 ⋅ h•2 Q= Hier gilt ϕ ≤ Q ≤1 YULEscher Assoziationskoeffizient Vierfelder-Korrelationskoeffizient ϕ2 = 1 2 χ n 20 C= ϕ2 ϕ2 +1 . II. Beschreibende Statistik 3. Trendbestimmung bei Zeitreihen ( xt )t =1,2,...,n Zeitreihe 3.1. Linearer Trend g (t ) = a + b ⋅ t Trendgerade n bˆ = 12∑ t ⋅ xt − 6n ⋅ ( n + 1) ⋅ x t =1 Schätzung des Anstiegs der Trendgeraden ( n − 1) ⋅ n ⋅ ( n + 1) n +1 aˆ = x − bˆ ⋅ 2 Schätzung des Absolutglieds der Trendgeraden 3.2. Polynomialer Trend g (t ) = β 0 + β1 ⋅ t + ... + β m ⋅ t m Trendpolynom (m<n-1) Die Schätzung der Koeffizienten ist die Lösung des linearen Gleichungssystems ⎛ n ⎜ ⎜ ∑t ⎜ ⎜⎜ m ⎝ ∑t ∑t ∑t 2 ∑t m +1 ⎞ ⎛ βˆ0 ⎞ ⎛ ∑ xt ⎞ ⎜ ⎟ ⎜ ⎟ m +1 ⎟ ˆ ⎟ ⎜ β1 ⎟ = ⎜ ∑ t ⋅ xt ⎟ . ⎟⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎟ ⎜ ⎟ ∑ t m+m ⎠⎟ ⎝⎜ βˆm ⎠⎟ ⎝⎜ ∑ t m ⋅ xt ⎠⎟ ∑t ∑t m 3.3. Symmetrisches gleitendes Mittel gt = s ∑a ⋅x i t +i symmetrisches gleitendes Mittel der Länge 2s + 1 mit den i =− s Gewichten a− s ,..., as ≥ 0 und der Bedingung a− s + ... + as = 1 ( t = s + 1, s + 2, ... , n - s ) . Empfehlung für saisonale Monatsdaten: a−6 = a6 = 1 24 Quartalsdaten: a−2 = a2 = 1 , 8 , a−5 = ... = a5 = 1 12 a−1 = a0 = a1 = 1 4 3.4. Exponentielles Glätten gˆ t = α ⋅ xt + (1 − α ) ⋅ gˆ t −1 gˆ1 = x1 (t = 2,3,..., n ) Rekursionsformel zum exponentiellen Glätten mit Glättungsfaktor α ∈ (0,1) 21 II. Beschreibende Statistik Kurzfristige Vorhersage mittels exponentieller Glättung für Zeitreihen • ohne Saisonkomponente und ohne Trend: • ohne Saisonkomponente und xn*+1 = gˆ n α xn*+1 = 2 ⋅ gˆ n − gˆˆ n + ⋅ ( gˆ n − gˆˆ n ) 1−α mit linearem Trend: ( gˆˆ t ) ist die zweimal mit demselben α exponentiell geglättete Zeitreihe. 4. Indizes 4.1. Indexformeln n 0 t p0i pti q0i qti Anzahl der Güter im Warenkorb Basiszeitpunkt oder -zeitraum Berichtszeitpunkt oder -zeitraum Preis des i-ten Gutes zum Basiszeitpunkt (i = 1, 2, ... , n) Preis des i-ten Gutes zum Berichtszeitpunkt (i = 1, 2, ... , n) Verbrauchsmenge des i-ten Gutes zum Basiszeitpunkt (i = 1, 2, ... , n) Verbrauchsmenge des i-ten Gutes zum Berichtszeitpunkt (i = 1, 2, ... , n) nach LASPEYRES Preisindex ∑i pti ⋅ q0i L P0t = ∑ p0i ⋅ q0i i nach PAASCHE ∑p = ∑p ti P 0t P i ⋅ qti i 0i Mengenindex ∑i p0i ⋅ qti L Q0t = ∑ p0i ⋅ q0i ⋅ qti P 0t Q i nach FISHER U 0t ∑p = ∑p ti ⋅ qti 0i ⋅ q0i i ∑p = ∑p ti ⋅ qti ti ⋅ q0i i i P0Ft = P0Lt ⋅ P0Pt Q0Ft = Q0Lt ⋅ Q0Pt Umsatzindex i Es gilt U 0t = P0Lt ⋅ Q0Pt = P0Pt ⋅ Q0Lt . 4.2. Zerlegung von Indizes Es gilt 22 II. Beschreibende Statistik p P = 1 i p0 P 0t ∑p ⋅ qti ti i ⎛ pt ∑⎜ p i ⎝ 0 ⎞ ⋅ p0i ⎟ ⋅ qti ⎠ = P0t i P ( S ) , wobei ∑p = ∑p ti P0t i einfacher aggregierter Preisindex, 0i i P (S ) Index der Preisstrukturverschiebung, und q Q = t i q0 L 0t ∑q ti ⋅ p0i i ⎛q ⎞ ∑i ⎜ qt ⋅ q0i ⎟ ⋅ p0i ⎝ 0 ⎠ = Q0t iQ ( S ) , wobei ∑q = ∑q ti Q0t i einfacher aggregierter Mengenindex, 0i i Q (S ) Index der Mengenstrukturverschiebung . 4.3. Bilateraler Preisvergleich USA - Deutschland Warenkorb D Mengen [ME] qD,i Preise [GE/ME] p€,i qUSA,i p$,i Warenkorb USA Devisenkurs in $ DK D ,USA ∑p = ∑p $,i VGPD ,USA ⋅ qD ,i i €,i ⋅ qD ,i € Verbrauchergeldparität in $ € anhand des deutschen i ∑p = ∑p €,i VGPUSA, D Warenkorbs ⋅ qUSA,i i $,i ⋅ qUSA,i Verbrauchergeldparität in € $ anhand des amerikani- i schen Warenkorbs VGP D ,USA = KKPD ,USA = VGPD ,USA VGPUSA, D DK D ,USA VGPD ,USA mittlere Verbrauchergeldparität in $ € Kaufkraftparität anhand des deutschen Warenkorbs 23 II. Beschreibende Statistik 5. Statistische Qualitätskontrolle 5.1. Kontrollkarten Mittelwertkarte ( x -Karte ) Über der Zeitachse werden die arithmetischen Mittel aus Stichproben jeweils vom Umfang n grafisch dargestellt. Ko Mittelwerte Wo µ0 Wu Ku 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 Stichproben μ0 σ K o u = μ0 ± 3 ⋅ σ Wo u = μ0 ± 2 ⋅ σ Normwert des zu prüfenden, metrisch skalierten Merkmals Standardabweichung des Merkmals n n obere bzw. untere Kontrollgrenze (= Eingreifgrenze) obere bzw. untere Warngrenze (= Vorwarngrenze) Für ein normalverteiltes Merkmal beträgt die Wahrscheinlichkeit für einen Fehlalarm: α = 0,0027 beim Faktor z1−α 2 = 3 , α = 0,0455 beim Faktor z1−α 2 = 2 . s-Karte Über der Zeitachse werden die empirischen Standardabweichungen aus Stichproben jeweils vom Umfang n grafisch dargestellt. σ0 Standardabweichung des zu prüfenden, metrisch skalierten Merkmals ⎛ ⎞ 3 Ko = ⎜ 1 + 1 − c22 ⎟ ⋅ σ 0 ⎝ c2 ⎠ obere Kontrollgrenze 24 II. Beschreibende Statistik ⎧ K u = max ⎨0, ⎩ ⎫ ⎛ ⎞ 3 1 − c22 ⎟ ⋅ σ 0 ⎬ ⎜1 − ⎝ c2 ⎠ ⎭ untere Kontrollgrenze 2 ⎛n⎞ ⎛ n −1⎞ ⋅Γ⎜ ⎟ Γ⎜ ⎟ n −1 ⎝ 2 ⎠ ⎝ 2 ⎠ Dabei ist c2 = (Γ-Funktion siehe Abschnitt I.2.7.). mittlere Standardabweichungen Κο σ0 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 Stichproben p-Karte Über der Zeitachse werden die relativen Häufigkeiten des Ausschusses aus Stichproben vom Umfang nt grafisch dargestellt. Ausschussquoten Ko Wo p0 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 Stichproben p0 Ko ,t = p0 + 3 ⋅ Ausschussquote des ungestörten Prozesses p0 (1 − p0 ) nt obere Kontrollgrenze (= Eingreifgrenze) 25 II. Beschreibende Statistik ⎛ K u ,t = max ⎜ 0, p0 − 3 ⋅ ⎝ p0 (1 − p0 ) ⎞ ⎟ nt ⎠ untere Kontrollgrenze Warngrenzen erhält man, indem der Faktor 3 durch 2 ersetzt wird. 5.2. Einfacher Stichprobenplan ( N , n, c ) einfacher Prüfplan zur Attributprüfung mit N ... Umfang des zu prüfenden Postens n ... Stichprobenumfang c ... Annahmezahl M Anzahl der Fehlerhaften im Posten p= M N Ausschussquote des Postens X Anzahl der Fehlerhaften in der Stichprobe L( p ) = P( X ≤ c | p ) Operationscharakteristik des Prüfplans (= Wahrscheinlichkeit, den Posten anzunehmen, wenn er die Ausschussquote p hat) Es gilt c ⎛ M ⎞⎛ N − M ⎞ ⎛ N ⎞ M L( p ) = ∑ ⎜ ⎟ ⎜ mit p = . ⎟ ⎜ ⎟ N k =0 ⎝ k ⎠ ⎝ n − k ⎠ ⎝n⎠ pProd pKons α = P( X > c | pProd ) = 1 − L( pProd ) β = P( X ≤ c | pKons ) = L( pKons ) p0,5 Medianpunkt (= Prüfpunkt = Indifferenzpunkt, definiert durch L( p0,5 ) = 0,5 ) Näherung: p0,5 ≈ 1 2 c+2 3 χ 2( c +1);0,5 ≈ 2n n D ( p ) = p ⋅ L( p ) h=− Gutlage (= AQL) Schlechtlage (= LQ) Produzentenrisiko Konsumentenrisiko mittlerer Durchschlupf eines Postens mit Ausschussquote p p dL( p ) ⋅ L( p ) dp Näherung: (Quantile der χ 2 -Verteilung in IV.7.) Steilheit der Operationscharakteristik p = p0,5 h≈ 2 ⋅ ( n ⋅ p0,5 ) c +1 − n ⋅ p0,5 2 ⋅ c + 1, 47 e ≈ π c! 26 III. Schließende Statistik III. Schließende Statistik 1. Punktschätzungen Merkmal mit Verteilung Pθ X θ zu schätzender Parameter X 1 , X 2 ,..., X n mathematische Stichprobe (= unabhängige, identisch wie X verteilte Zufallsvariablen) Stichprobenumfang n ˆ ˆ θ n = θ n ( X 1 ,..., X n ) Punktschätzung für θ (= reellwertige Stichprobenfunktion) 1.1. Wünschenswerte Eigenschaften von Punktschätzungen Eθ (θˆn ) = θ lim E (θˆ ) = θ Erwartungstreue lim P ( θˆn − θ > ε ) = 0 für jedes ε > 0 schwache Konsistenz P (lim θˆn = θ ) = 1 starke Konsistenz n →∞ θ n n →∞ n →∞ asymptotische Erwartungstreue θˆn hat die kleinste Varianz von ⎫ ⎪ allen erwartungstreuen Punkt- ⎬ ⎪ schätzungen für θ ⎭ Effizienz Die wichtigsten Punktschätzungen und ihre Eigenschaften zu Schätzer schätzender Parameter 1 n E( X ) X = ∑ Xi n i =1 1 n S2 = ( X i − X )2 ∑ n − 1 i =1 Var ( X ) 1 n M Zen ;2 = ∑ ( X i − X ) 2 n i =1 erwar- asympt. schw. tungs- erwart.- konsistreu treu tent S = S2 hn ( A) **) Var ( X ) P ( A) *) Ja, wenn X normalverteilt ist. effizient Ja*) Ja Ja Ja Ja Ja Ja Ja Ja Nein Ja Ja Ja Ja Ja Ja Ja Ja Ja Ja **) stark konsistent relative Häufigkeit siehe III.3.2. 27 Nein Ja III. Schließende Statistik 1.2. Maximum-Likelihood-Methode L( x1 ,..., xn ;θ ) Likelihood-Funktion, wobei ⎧ Pθ ( X =x1 ) ⋅ ... ⋅ Pθ ( X =xn ), ⎪ ⎪ L( x1 ,..., xn ;θ ) = ⎨ , ⎪ fθ ( x1 ) ⋅ ... ⋅ fθ ( xn ) ⎪⎩ wenn X diskret verteilt ist mit den Einzelwahrscheinlichkeiten Pθ ( X =xi ) wenn X stetig verteilt ist mit der Dichte fθ Einen Maximum-Likelihood-Schätzer θˆn für θ erhält man als Lösung der Maximum-Likelihood-Gleichung: 2. 1−α d ln L( X 1 ,..., X n ;θ ) = 0 . dθ Bereichsschätzungen Konfidenzniveau (= statistische Sicherheit = Vertrauenswahrscheinlichkeit) 2.1. Konfidenzintervalle für µ und σ ² eines normalverteilten Merkmals zu schätzen Erwartungswert µ bekannt Erwartungswert µ σ2 χ 2 2 n −1;1−α n Varianz σ2 σ X − z1−α 2 ⋅ n (n − 1) ⋅ S Varianz σ untere Grenze S X − tn −1;1−α 2 ⋅ n µ ∑(X i =1 i 2 X + z1−α 2 ⋅ (n − 1) ⋅ S χ n2−1;α 2 − μ )2 χ n2;1−α obere Grenze S X + tn −1;1−α 2 ⋅ n n ∑(X i =1 2 i σ n 2 2 − μ )2 χ n2;α 2 2.2. Konfidenzintervall für eine Wahrscheinlichkeit p Konfidenzintervall für die Wahrscheinlichkeit p=P(A) eines zufälligen Ereignisses A: ⎛ h ( A)(1 − hn ( A)) 1 h ( A)(1 − hn ( A)) 1 ⎞ − ; hn ( A) + z1−α 2 ⋅ n + ⎟⎟ KI p ≈ ⎜⎜ hn ( A) − z1−α 2 ⋅ n n 2n n 2n ⎠ ⎝ 28 III. Schließende Statistik hn ( A) ist die relative Häufigkeit des Ereignisses A (siehe Abschnitt III.3.2.) Approximationsbedingung: n ⋅ hn ( A) ≥ 5 und n ⋅ (1 − hn ( A)) ≥ 5 . 3. Signifikanztests Jeder Signifikanztest besteht aus H0 T K* Nullhypothese, Testgröße, Ablehnungsbereich. Entscheidungsregel: T ∈ K * ⇒ H 0 ablehnen (H0 ist signifikant falsch.) T ∉ K * ⇒ H 0 nicht ablehnen (Es ist keine signifikante Entscheidung möglich.) α Signifkanzniveau ( 0 < α < 1 ). α ist eine obere Grenze für die Wahrscheinlichkeit der Fehlentscheidung 1. Art: P(T ∈ K * ) ≤ α , wenn H 0 wahr ist. 3.1. Parametertests für ein normalverteiltes Merkmal X normalverteiltes Merkmal mit Erwartungswert µ und Varianz σ 2 x1 ,..., xn konkrete Stichprobe vom Umfang n zum Merkmal X x , s2 s02 = empirisches Mittel und empirische Streuung (siehe II.1.4.) n 1 ∑ ( xi − μ )2 Punktschätzung für σ 2 bei bekanntem µ n i =1 NullVoraushypothese setzung a) μ = μ0 b) c) Testgröße einfacher unbekannt t-Test x − μ0 n s μ ≥ μ0 μ ≤ μ0 σ μ = μ0 σ 2 bekannt 2 x − μ0 Z-Test σ σ 2 = σ 02 σ ≥σ 2 2 0 σ 2 ≤ σ 02 d) Name des Tests σ 2 = σ 02 Chi-Quadratµ unbekannt Streuungstest µ bekannt Chi-QuadratStreuungstest n ( n − 1) ⋅ s 2 σ 02 n ⋅ s02 σ 2 0 Ablehnungsbereich K* (−∞; −tn −1;1−α 2 ) ∪ (tn −1;1−α 2 ; ∞) (−∞ ; −tn −1;1−α ) (tn −1;1−α ; ∞) (−∞; − z1−α 2 ) ∪ ( z1−α 2 ; ∞) (0; χ n2−1;α ) ∪ ( χ n2−1;1−α ; ∞) 2 (0; χ 2 n −1;α ) ( χ n2−1;1−α ; ∞) (0; χ n2;α ) ∪ ( χ n2;1−α ; ∞) 2 Einseitige Tests in b) und d) werden analog zu a) bzw. c) durchgeführt. 29 2 2 III. Schließende Statistik 3.2. Test auf Wahrscheinlichkeit (Anteilswert) p = P( A) unbekannte Wahrscheinlichkeit eines zufälligen Ereignisses A Anzahl des Eintretens von A hn ( A) relative Häufigkeit von A in n Versuchen ( = ) n zweiseitige Fragestellung H 0 : p = p0 T= 1 2n p0 (1 − p0 ) n hn ( A) − p0 − K * ≈ ( z1−α 2 ; ∞) einseitige Fragestellungen H 0 : p ≤ p0 H 0 : p ≥ p0 1 2n T= p0 (1 − p0 ) n 1 hn ( A) − p0 + 2n T= p0 (1 − p0 ) n hn ( A) − p0 − K * ≈ ( z1−α ; ∞) K * ≈ (−∞ ; − z1−α ) Approximationsbedingung: n ⋅ hn ( A) ≥ 5 und n ⋅ (1 − hn ( A)) ≥ 5 . 3.3. Anpassungstests X n Merkmal mit unbekannter Verteilungsfunktion FX Stichprobenumfang χ²-Anpassungstest Benötigt werden eine Klasseneinteilung aus k Klassen und dazu eine Häufigkeitstabelle mit den Klassenhäufigkeiten h j ( j = 1, 2,..., k ). F0 r pj hypothetische Verteilungsfunktion Anzahl der nach Maximum-Likelihood geschätzten Parameter, um F0 zu präzisieren hypothetische Klassenwahrscheinlichkeiten H 0 : FX = F0 k (h j − np j ) 2 j =1 np j T =∑ k h 2j j =1 np j =∑ − n Approximationsbedingung: n ⋅ p j ≥ 5 für alle j = 1,..., k . 30 K * ≈ ( χ k2−1− r ;1−α ; ∞) III. Schließende Statistik Test auf Normalverteilung mittels Schiefe und Exzess ⎧ ⎪ T1 = Sch ⎨ ⎪⎩ T2 = Exz + 3 H 0 : X ist normalverteilt K1* = (−∞ ; − sn;1−α 2 ) ∪ ( sn;1−α 2 ; ∞) K 2* = [0; wn;α ) ∪ ( wn;1−α ; ∞) 2 2 H0 ist zum Signifikanzniveau 1 − (1 − α ) 2 ≈ 2α abzulehnen, wenn T1 ∈ K1* oder T2 ∈ K 2* . Die Quantile sn;1−α , wn ;1−α und wn ;α sind in IV.12. tabelliert. 2 2 2 3.4. Tests auf Unabhängigkeit X, Y ( x1 , y1 ),...,( xn , yn ) zwei verbundene Merkmale Beobachtungspaare zu X, Y Test auf Unabhängigkeit zweier normalverteilter Merkmale (X,Y) ρ XY rxy normalverteiltes Merkmalspaar unbekannter Korrelationskoeffizient empirischer Korrelationskoeffizient H 0 : ρ XY = 0 T= rxy ⋅ n − 2 K * = (−∞; −tn − 2;1−α 2 ) ∪ (tn − 2;1−α 2 ; ∞) 1− r 2 xy Oder: H0 ist zum Signifkanzniveau α zu verwerfen, wenn |rxy| die kritische Schranke in IV.11. übersteigt. χ²-Unabhängigkeitstest Die Stichprobe liege in Form einer Kontingenztafel mit k Zeilen und m Spalten vor. H 0 : X , Y unabhängig T = χ 2 (siehe II.2.2.) K * ≈ ( χ (2k −1)( m −1);1−α ; ∞) Approximationsbedingung: eij ≥ 5 für alle i = 1,..., k ; j = 1,..., m . 3.5. Zwei-Stichproben-Vergleiche für verbundene Merkmale X, Y ( x1 , y1 ),...,( xn , yn ) zwei verbundene Merkmale Beobachtungspaare zu X, Y 31 III. Schließende Statistik t-Test für normalverteilte Paardifferenzen D=X-Y d i = xi − yi Differenz der Merkmale, als normalverteilt vorausgesetzt Differenzen der Beobachtungspaare H 0 : EX = EY T= 1 n ∑ di n i =1 2 1 ∑ di2 − n ( ∑ di ) n ⋅ (n − 1) K * = (−∞; −tn −1;1−α 2 ) ∪ (tn −1;1−α 2 ; ∞) Vorzeichentest X, Y Z n+ bn ;1−α 2 zwei verbundene, stetig verteilte Merkmale Anzahl der i, für die xi − yi > 0 1 Quantil der ( n, ) -Binomialverteilung (in IV.10. vertafelt) 2 H 0 : Med ( X − Y ) = 0 T = Z n+ K * = [0; n − bn ;1−α 2 ] ∪ [bn ;1−α 2 ; n] Für n > 25 kann man hier das Quantil der Binomialverteilung näherungsweise durch n + n ⋅ z1−α 2 . das der Normalverteilung ersetzen: bn ;1−α 2 ≈ 2 Vorzeichen-Rang-Test von WILCOXON X, Y Ri zwei verbundene, stetig verteilte Merkmale Rangzahl von xi − yi (i = 1,..., n ) Rn+ Summe der Ri , für die xi − yi > 0 H 0 : Med ( X − Y ) = 0 T= n(n + 1) 4 n(n + 1)(2n + 1) 24 Rn+ − K * ≈ ( z1−α 2 ; ∞) Approximationsbedingung: n > 20 . 3.6. Zwei-Stichprobenvergleiche für unabhängige Merkmale X, Y x1 , x2 ,..., xnx unabhängige Merkmale Stichprobe zu X vom Umfang nx y1 , y2 ,..., yn y Stichprobe zu Y vom Umfang ny 32 III. Schließende Statistik Doppelter t-Test X ∼ N ( μ x ;σ x2 ) Y ∼ N ( μ y ;σ ) 2 y normalverteiltes Merkmal ⎫⎪ 2 2 ⎬ mit unbekanntem σ x = σ y normalverteiltes Merkmal ⎪⎭ H0 : μx = μ y T= ( x − y ) ⋅ nx ⋅ ny ⋅ (nx + n y − 2) K * = (−∞ ; −tnx + ny − 2;1−α 2 ) ∪ (tnx + ny − 2;1−α 2 ; ∞) (nx + n y )[(nx − 1) s + (n y − 1) s ] 2 x 2 y einseitige Fragestellungen: H 0 : μ x ≤ μ y mit K * = (+tnx + ny − 2;1−α ; +∞) H 0 : μ x ≥ μ y mit K * = (−∞ ; −tnx + ny − 2;1−α ) BEHRENS-FISHER-Problem X ∼ N ( μ x ;σ x2 ) normalvert. Merkmal ⎫⎪ 2 2 2 2 ⎬ σ x ,σ y unbekannt, möglicherweise σ x ≠ σ y 2 Y ∼ N ( μ y ;σ y ) normalvert. Merkmal ⎪⎭ H0 : μx = μ y x−y T= s 2 x nx + s mit K * ≈ (−∞ ; −t f ;1−α 2 ) ∪ (t f ;1−α 2 ; ∞) 2 y ny ⎧ ⎡ (n − 1)( s x2 + s 2y )2 ⎤ ⎪ent ⎢ ⎥ für n = n x = n y f = ⎨ ⎣ ( s x2 )2 + ( s 2y ) 2 ⎦ ⎪ für n x ≠ n y ⎩ min( n x , n y ) − 1 ent[z] bezeichnet die größte ganze Zahl, die nicht größer als z ist. Approximationsbedingung: nx ≥ 6 und n y ≥ 6 . Einseitige Fragestellungen analog zum doppelten t-Test. F-Test X ∼ N ( μ x ;σ x2 ) normalverteiltes Merkmal ⎫⎪ ⎬ Y ∼ N ( μ y ;σ y2 ) normalverteiltes Merkmal ⎪⎭ H 0 : σ x2 = σ y2 T= sx2 s y2 μ x , μ y unbekannt K * = (0; Fn −1;n x 33 α y −1; 2 ) ∪ ( Fn x −1; n y −1;1− α ; ∞) 2 III. Schließende Statistik einseitige Fragestellungen: H 0 : σ x2 ≤ σ y2 mit K * = ( Fnx −1; ny −1;1−α ; ∞) H 0 : σ x2 ≥ σ y2 mit K * = (0; Fnx −1; ny −1;α ) U-Test von WILCOXON-MANN-WHITNEY X,Y Rx stetig verteilte Merkmale mit den Verteilungen PX bzw. PY Summe der Rangzahlen der x-Werte in der gemeinsamen Beobachtungsreihe aller x- und y-Werte H 0 : PX = PY T= nx (nx + n y + 1) 2 nx n y (nx + n y + 1) 12 Rx − K * ≈ (−∞; − z1−α 2 ) ∪ ( z1−α 2 ; ∞) Approximationsbedingung: nx ≥ 4 und n y ≥ 4 und nx + n y ≥ 20 . 4. Einfache lineare Regression Modell der einfachen linearen Regression: Yi = a + b ⋅ xi + ε i (i = 1, 2,..., n ) Dabei sind yi xi εi i-ter Beobachtungswert zum Regressanden (= Zielgröße) i-ter Beobachtungswert zum Regressor (= Einflussgröße) zufälliger Fehler (= Residuum) Voraussetzung: a b σ2 y = a + b⋅ x E (ε i ) = 0 und Var (ε i ) = σ 2 für alle i = 1,..., n. Die ε i sind paarweise unkorreliert. Regressionskonstante Regressionskoeffizient Reststreuung Regressionsgerade ( x ∈ ) 34 III. Schließende Statistik 4.1. Schätzungen nach der Methode der kleinsten Quadrate MKQ-Schätzer für b, a bzw. σ²: n bˆ = ∑ ( x − x )( y − y ) i i =1 i n ∑ (x − x ) i =1 = rxy ⋅ 2 sy sx i aˆ = y − bˆ ⋅ x 1 n ˆ ( yi − yˆi ) 2 mit yˆi = aˆ + bx s = ∑ i n − 2 i =1 2 R sR2 yˆ i Stichprobenreststreuung erwarteter y-Wert zu xi y = aˆ + bˆ ⋅ x Es gilt: aˆ, bˆ und sR2 sind erwartungstreu für a , b bzw. σ 2 . 4.2. Konfidenzband für die Regressionsgerade Zusätzliche Voraussetzung: ε i ∼ N (0;σ 2 ) für i = 1,..., n . KI a +bx = (aˆ + bˆ ⋅ x − s yˆ ⋅ tn − 2;1−α 2 ; aˆ + bˆ ⋅ x + s yˆ ⋅ tn − 2;1−α 2 ) mit Konfidenzschätzung für die Regressionsgerade y = a + bx ⎛ 1 ( x − x )2 ⎞ . s 2yˆ = sR2 ⋅ ⎜ + 2 ⎟ ⎝ n ( n − 1) ⋅ s x ⎠ 4.3. Konfidenzintervall für einen Zwischenwert Zusätzliche Voraussetzung: ε i ∼ N (0;σ 2 ) für i = 1,..., n . KI a +bx0 = (aˆ + bˆ ⋅ x0 − s yˆ0 ⋅ tn − 2;1−α 2 ; aˆ + bˆ ⋅ x0 + s yˆ0 ⋅ tn − 2;1−α 2 ) Konfidenzschätzung für den Zwischenwert y0 = a + bx0 mit ⎛ 1 ( x0 − x ) 2 ⎞ . s = s ⋅ ⎜1 + + 2 ⎟ ⎝ n ( n − 1) ⋅ s x ⎠ 2 yˆ 0 2 R 35 III. Schließende Statistik y Regressiongerade 95% Mittelwert 95% Einzelwert x 4.4. Prüfung des Regressionskoeffizienten Zusätzliche Voraussetzung: ε i ∼ N (0;σ 2 ) für i = 1,..., n . H0 : b = b0 mit T= bˆ −b0 sb K* = (−∞ ; −tn−2;1−α 2 ) ∪(tn−2;1−α 2 ; ∞) sR2 s = . ( n − 1) ⋅ s x2 2 b Beim Test auf Anstieg null ( b0 = 0 ) gilt für die Testgröße T = rxy n − 2 1 − rxy2 (vgl.III.3.4.). 4.5. Prüfung der Regressionskonstante Zusätzliche Voraussetzung: ε i ∼ N (0;σ 2 ) für i = 1,..., n . H0 : a = a0 mit 5. T= aˆ − a0 sa K* = (−∞ ; −tn−2;1−α 2 ) ∪(tn−2;1−α 2 ; ∞) ⎛1 ⎞ x2 . s = s ⋅⎜ + 2 ⎟ ⎝ n ( n − 1) ⋅ s x ⎠ 2 a 2 R Multivariate lineare Regression Modell der multivariaten linearen Regression: Yi = b0 + b1 ⋅ xi1 + b2 ⋅ xi 2 + ... + bm ⋅ xim + εi ( i = 1,…, n ; n > m + 1) 36 III. Schließende Statistik yi i-ter Beobachtungswert zum Regressanden ( j) i x εi i-ter Beobachtungswert zum Regressor j ( j = 1,… , m ) zufälliger Fehler Voraussetzung: E (ε i ) = 0 und Var (ε i ) = σ 2 für alle i = 1,..., n. b0 ,… , bm Regressionskoeffizienten σ Reststreuung 2 Modell in Matrixschreibweise: y = X ⋅b +ε mit ⎛ 1 x11 ⎛ y1 ⎞ ⎛ b0 ⎞ ⎛ ε1 ⎞ ⎜ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ε2 ⎟ y2 ⎟ b1 ⎟ 1 x21 ⎜ ⎜ ⎜ ; b= ; ε= ; X =⎜ y= ⎜ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜⎜ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎝ yn ⎠ ⎝ bm ⎠ ⎝εn ⎠ ⎝ 1 xn1 x1m ⎞ ⎟ x2 m ⎟ . ⎟ ⎟ xnm ⎟⎠ 5.1. Schätzung der Regressionskoeffizienten Voraussetzung: X hat vollen Rang m +1. ⎛ bˆ0 ⎞ ⎜ ⎟ ⎜ bˆ ⎟ bˆ = ⎜ 1 ⎟ ⎜ ⎟ ⎜ bˆ ⎟ ⎝ m⎠ Punktschätzung für b nach der Methode der kleinsten Quadrate b̂ ist Lösung des linearen Gleichungssystems T T ( X X ) ⋅ bˆ = X ⋅ y . sR2 Stichprobenreststreuung, sie berechnet sich zu sR2 = Es gilt n 1 ∑ ( yi − yˆi )2 n − m − 1 i =1 y = bˆ0 + bˆ1 ⋅ x1 + ... + bˆm ⋅ xm mit yˆ i = bˆ0 + bˆ1 ⋅ xi1 + ... + bˆm ⋅ xim . mit y = 37 1 n 1 n und y x = ∑ i ∑ xij . j n i =1 n i =1 III. Schließende Statistik 5.2. Test auf linearen Zusammenhang Zusätzliche Voraussetzung: Die ε i sind normalverteilt und paarweise unkorreliert. Varianztabelle Streuungsursache Quadratsummen Freiheitsgrade n SQE = ∑ ( yˆ i − y ) 2 m Abweichung von der Geraden SQR = ∑ ( yi − yˆ i ) 2 n-1-m Abweichung vom Mittelwert SQT = ∑ ( yi − y ) 2 Gerade i =1 n i =1 Varianzen SQE m SQR MQR = n −1− m MQE = Testgröße T= MQE MQR n n-1 i =1 Test H 0 : b1 = b2 = … = bm = 0 Varianzzerlegung: T= MQE MQR K * = ( Fm ; n −1− m ;1−α ; ∞) SQT = SQE + SQR 5.3. Multiple Korrelation B= SQE SQT ry ; x1 ,…, xm = B lineares multiples Bestimmtheitsmaß multipler Korrelationskoeffizient Für die einfache Korrelation (m = 1; vgl. II.2.1.) gilt 6. B = rxy2 und rxy = sgn(bˆ) ⋅ B . Nichtlineare Regression 6.1. Polynomiale Regression Modell der polynomialen Regression: Yi = b0 + b1 ⋅ xi + b2 ⋅ xi2 + ... + bm ⋅ xim + εi ( i = 1,…, n ; n > m + 1) Die MKQ-Schätzungen für die Regressionskoeffizienten sind Lösungen des linearen Gleichungssystems 38 III. Schließende Statistik ∑y ∑y x i = bˆ0 ⋅ ∑1 + bˆ1 ⋅ ∑ xi i i = bˆ0 ⋅ ∑ xi + bˆ1 ⋅ ∑ xi2 + … + bˆm ⋅ ∑ xim +1 ∑y x = bˆ0 ⋅ ∑ xim + bˆ1 ⋅ ∑ xim +1 + … + bˆm ⋅ ∑ xim + m m i i + … + bˆm ⋅ ∑ xim . 6.2. Curvilineare Regression Manche nichtlineare Funktionen lassen sich durch eine geeignete Transformation in einen linearen Ansatz umwandeln. Hier eine Auswahl: Funktion Grafische Darstellung y = a ⋅ xb b>0 b<0 log y = log a + b ⋅ log x Potenzfunktion b>0 y = a ⋅ eb ⋅x Exponentialfunktion ln y = ln a + b ⋅ x a 1 y= a + b⋅ x b<0 1 a 1 y= a + b ⋅ e− x logistische Funktion a > 0, b > 0 Transformierte Funktion 1 = a + b ⋅ e− x y 1 a+b 1 a 1 = a + b⋅ x y Hyperbelfunktion a > 0, b > 0 y= a⋅x b+ x a 1 1 b 1 = + ⋅ y a a x TÖRNQUISTfunktion a > 0, b > 0 39 III. Schließende Statistik 7. Varianzanalyse (Modell I, einfache Klassifikation) X 1 , X 2 ,… , X k xi1 , xi 2 ,..., xini k Gruppen (unabhängige Merkmale) mit X i ∼ N ( μi ;σ 2 ) Stichprobe vom Umfang ni zum Merkmal X i n = n1 + ... + nk Gesamtstichprobenumfang ni xi ⋅ = 1 ni x⋅⋅ = 1 k ni ∑∑ xij n i =1 j =1 ∑x j =1 ij Gruppenmittelwerte ( i = 1,..., k ) Gesamtmittelwert Varianztabelle Streuungsursache zwischen den Gruppen Quadratsummen Freiheitsgrade k SQZ = ∑ ni ⋅ ( xi ⋅ − x⋅⋅ ) 2 Varianzen k-1 MQZ = SQZ k −1 n-k MQI = SQI n−k i =1 k ni innerhalb der Gruppen SQI = ∑∑ ( xij − xi ⋅ ) 2 total SQT = ∑∑ ( xij − x⋅⋅ ) 2 i =1 j =1 k Testgröße T= MQZ MQI ni n-1 i =1 j =1 Test (multipler Mittelwertvergleich) H 0 : μ1 = μ 2 = ... = μ k T= MQZ MQI 40 K * = ( Fk −1;n − k ;1−α ; ∞) IV. Tafeln IV. Tafeln 1. Griechisches Alphabet Buchstabe Α Β Γ Δ Ε Ζ Η Θ 2. α β γ δ ε ζ η θ(ϑ) Name Alpha Beta Gamma Delta Epsilon Zeta Eta Theta Buchstabe Ι Κ Λ Μ Ν Ξ Ο Π ι κ λ μ ν ξ ο π Name Jota Kappa Lambda My Ny Xi Omikron Pi Buchstabe Ρ Σ Τ Υ Φ Χ Ψ Ω ρ σ ς τ υ φ χ ψ ω Lineare Interpolation Liegt x zwischen x1 und x2 , so setzt man x1 f ( x1 ) x ? x2 3. f ( x ) ≈ f ( x1 ) + f ( x2 ) x − x1 ⋅ ( f ( x2 ) − f ( x1 )) . x2 − x1 Quantile der standardisierten Normalverteilung α 0,9000 0,9500 0,9750 0,9900 0,9950 0,9990 0,9995 zα 1,282 1,645 1,960 2,326 2,576 3,090 3,290 α -3 0 Die Tafeln 3 bis 11 wurden mittels Excel 97 erstellt. 41 zα 3 Name Rho Sigma Tau Ypsilon Phi Chi Psi Omega IV. Tafeln 4. Zufallszahlen 9248 6683 8753 9786 8059 7988 0110 3250 3048 2565 3906 6913 5670 6922 1849 8029 5757 1709 7815 4917 6127 1864 0088 2557 4442 3425 8959 8015 3918 0777 5590 2486 5497 1150 7023 8794 0953 1506 5410 1375 9464 7196 7203 2147 4749 2516 1371 7104 9779 6938 0642 8225 6529 4350 4937 6857 2927 2873 6847 0092 8365 0393 6623 6319 8573 8963 5638 9141 1426 2623 6831 7519 9567 5500 0704 7579 7321 0299 2341 7253 4546 9935 4193 7322 7712 3356 9706 8789 8989 8066 0447 6302 3800 9176 1334 4905 4880 3613 4040 8673 7121 1826 8309 9293 3961 0108 6397 0842 1079 8985 8361 3191 7323 9668 0036 6335 1623 2074 6569 2179 7877 0624 4042 3909 9799 7893 3912 6535 9393 5209 8088 4549 6334 4541 1722 3191 5640 9632 1014 8124 2926 1301 2676 5698 0368 2522 2582 6383 8467 6529 4616 1510 4948 0806 0626 6271 0625 2885 4447 2863 2787 8660 2026 0762 8302 7045 7157 7007 0787 0538 1849 0695 5278 6118 6406 8588 7130 9184 1042 4918 9120 0462 3382 0556 6591 6406 2698 0562 6422 2033 4214 6693 3075 1605 6273 1546 3646 7285 9308 3973 8511 5059 1904 9749 8890 5072 0955 6434 8335 9299 5989 0119 8916 9800 5730 8685 2581 5014 3606 7266 2097 9165 3868 3755 4308 8037 1007 6272 1281 1171 1088 6958 3441 6860 0401 5451 3201 1734 3706 9988 0542 4666 0280 3256 5123 7424 1257 0788 7856 8929 7196 8974 9972 0679 2461 6589 4395 5149 3576 2621 8713 4482 6531 6309 1270 0693 3618 4723 8407 5393 6579 5880 1217 3725 4764 5912 8084 7622 5763 1069 6129 5454 4125 5199 3663 4480 7822 8274 2821 3798 4387 0751 5114 1759 7384 5339 6033 5130 0718 5582 5111 1765 9095 6784 2076 6496 7630 2016 3945 2489 2728 1182 7644 1253 7357 8473 6644 5697 6310 2703 1252 9423 3393 9035 7861 1825 6241 7726 8318 0821 2731 6826 2742 4832 2973 4741 9102 5664 7797 5790 6874 3248 0704 8277 4390 0885 5692 4746 3765 3470 42 IV. Tafeln 5. z 0,0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1,0 1,1 1,2 1,3 1,4 1,5 1,6 1,7 1,8 1,9 2,0 2,1 2,2 2,3 2,4 2,5 2,6 2,7 2,8 2,9 Verteilungsfunktion der Standardnormalverteilung 0,00 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09 0,500000 0,539828 0,579260 0,617911 0,655422 0,691462 0,725747 0,758036 0,788145 0,815940 0,841345 0,864334 0,884930 0,903199 0,919243 0,933193 0,945201 0,955435 0,964070 0,971284 0,977250 0,982136 0,986097 0,989276 0,991802 0,993790 0,995339 0,996533 0,997445 0,998134 0,503989 0,543795 0,583166 0,621719 0,659097 0,694974 0,729069 0,761148 0,791030 0,818589 0,843752 0,866500 0,886860 0,904902 0,920730 0,934478 0,946301 0,956367 0,964852 0,971933 0,977784 0,982571 0,986447 0,989556 0,992024 0,993963 0,995473 0,996636 0,997523 0,998193 0,507978 0,547758 0,587064 0,625516 0,662757 0,698468 0,732371 0,764238 0,793892 0,821214 0,846136 0,868643 0,888767 0,906582 0,922196 0,935744 0,947384 0,957284 0,965621 0,972571 0,978308 0,982997 0,986791 0,989830 0,992240 0,994132 0,995603 0,996736 0,997599 0,998250 0,511967 0,551717 0,590954 0,629300 0,666402 0,701944 0,735653 0,767305 0,796731 0,823814 0,848495 0,870762 0,890651 0,908241 0,923641 0,936992 0,948449 0,958185 0,966375 0,973197 0,978822 0,983414 0,987126 0,990097 0,992451 0,994297 0,995731 0,996833 0,997673 0,998305 0,515953 0,555670 0,594835 0,633072 0,670031 0,705402 0,738914 0,770350 0,799546 0,826391 0,850830 0,872857 0,892512 0,909877 0,925066 0,938220 0,949497 0,959071 0,967116 0,973810 0,979325 0,983823 0,987455 0,990358 0,992656 0,994457 0,995855 0,996928 0,997744 0,998359 0,519939 0,559618 0,598706 0,636831 0,673645 0,708840 0,742154 0,773373 0,802338 0,828944 0,853141 0,874928 0,894350 0,911492 0,926471 0,939429 0,950529 0,959941 0,967843 0,974412 0,979818 0,984222 0,987776 0,990613 0,992857 0,994614 0,995975 0,997020 0,997814 0,998411 0,523922 0,563559 0,602568 0,640576 0,677242 0,712260 0,745373 0,776373 0,805106 0,831472 0,855428 0,876976 0,896165 0,913085 0,927855 0,940620 0,951543 0,960796 0,968557 0,975002 0,980301 0,984614 0,988089 0,990863 0,993053 0,994766 0,996093 0,997110 0,997882 0,998462 0,527903 0,567495 0,606420 0,644309 0,680822 0,715661 0,748571 0,779350 0,807850 0,833977 0,857690 0,878999 0,897958 0,914656 0,929219 0,941792 0,952540 0,961636 0,969258 0,975581 0,980774 0,984997 0,988396 0,991106 0,993244 0,994915 0,996207 0,997197 0,997948 0,998511 0,531881 0,571424 0,610261 0,648027 0,684386 0,719043 0,751748 0,782305 0,810570 0,836457 0,859929 0,881000 0,899727 0,916207 0,930563 0,942947 0,953521 0,962462 0,969946 0,976148 0,981237 0,985371 0,988696 0,991344 0,993431 0,995060 0,996319 0,997282 0,998012 0,998559 0,535856 0,575345 0,614092 0,651732 0,687933 0,722405 0,754903 0,785236 0,813267 0,838913 0,862143 0,882977 0,901475 0,917736 0,931888 0,944083 0,954486 0,963273 0,970621 0,976705 0,981691 0,985738 0,988989 0,991576 0,993613 0,995201 0,996427 0,997365 0,998074 0,998605 0,0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 3,0 0,998650 0,999032 0,999313 0,999517 0,999663 0,999767 0,999841 0,999892 0,999928 0,999952 Φ( z ) -4 -2 0 43 z 2 4 IV. Tafeln 6. Quantile der t-Verteilung mit f Freiheitsgraden α 0,95 6,314 2,920 2,353 2,132 2,015 1,943 1,895 1,860 1,833 1,812 1,796 1,782 1,771 1,761 1,753 1,746 1,740 1,734 1,729 1,725 1,721 1,717 1,714 1,711 1,708 1,706 1,703 1,701 1,699 1,697 1,684 1,676 1,671 1,664 1,660 1,653 1,650 1,648 1,645 f 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 40 50 60 80 100 200 300 500 ∞ 0,975 12,706 4,303 3,182 2,776 2,571 2,447 2,365 2,306 2,262 2,228 2,201 2,179 2,160 2,145 2,131 2,120 2,110 2,101 2,093 2,086 2,080 2,074 2,069 2,064 2,060 2,056 2,052 2,048 2,045 2,042 2,021 2,009 2,000 1,990 1,984 1,972 1,968 1,965 1,960 0,99 31,821 6,965 4,541 3,747 3,365 3,143 2,998 2,896 2,821 2,764 2,718 2,681 2,650 2,624 2,602 2,583 2,567 2,552 2,539 2,528 2,518 2,508 2,500 2,492 2,485 2,479 2,473 2,467 2,462 2,457 2,423 2,403 2,390 2,374 2,364 2,345 2,339 2,334 2,326 0,995 63,656 9,925 5,841 4,604 4,032 3,707 3,499 3,355 3,250 3,169 3,106 3,055 3,012 2,977 2,947 2,921 2,898 2,878 2,861 2,845 2,831 2,819 2,807 2,797 2,787 2,779 2,771 2,763 2,756 2,750 2,704 2,678 2,660 2,639 2,626 2,601 2,592 2,586 2,576 0,9995 636,578 31,600 12,924 8,610 6,869 5,959 5,408 5,041 4,781 4,587 4,437 4,318 4,221 4,140 4,073 4,015 3,965 3,922 3,883 3,850 3,819 3,792 3,768 3,745 3,725 3,707 3,689 3,674 3,660 3,646 3,551 3,496 3,460 3,416 3,390 3,340 3,323 3,310 3,290 α -5 0 44 t f ;α 5 IV. Tafeln 7. Quantile der χ²–Verteilung mit f Freiheitsgraden α f 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 0,005 0,010 0,072 0,207 0,412 0,676 0,989 1,34 1,73 2,16 2,60 3,07 3,57 4,07 4,60 5,14 5,70 6,26 6,84 7,43 8,03 8,64 9,26 9,89 10,5 11,2 11,8 12,5 13,1 13,8 14,5 15,1 15,8 16,5 17,2 17,9 18,6 19,3 20,0 20,7 21,4 22,1 22,9 23,6 24,3 25,0 25,8 26,5 27,2 28,0 0,01 0,020 0,115 0,297 0,554 0,872 1,24 1,65 2,09 2,56 3,05 3,57 4,11 4,66 5,23 5,81 6,41 7,01 7,63 8,26 8,90 9,54 10,2 10,9 11,5 12,2 12,9 13,6 14,3 15,0 15,7 16,4 17,1 17,8 18,5 19,2 20,0 20,7 21,4 22,2 22,9 23,7 24,4 25,1 25,9 26,7 27,4 28,2 28,9 29,7 0,025 0,001 0,051 0,216 0,484 0,831 1,24 1,69 2,18 2,70 3,25 3,82 4,40 5,01 5,63 6,26 6,91 7,56 8,23 8,91 9,59 10,3 11,0 11,7 12,4 13,1 13,8 14,6 15,3 16,0 16,8 17,5 18,3 19,0 19,8 20,6 21,3 22,1 22,9 23,7 24,4 25,2 26,0 26,8 27,6 28,4 29,2 30,0 30,8 31,6 32,4 0,05 0,004 0,103 0,352 0,711 1,15 1,64 2,17 2,73 3,33 3,94 4,57 5,23 5,89 6,57 7,26 7,96 8,67 9,39 10,1 10,9 11,6 12,3 13,1 13,8 14,6 15,4 16,2 16,9 17,7 18,5 19,3 20,1 20,9 21,7 22,5 23,3 24,1 24,9 25,7 26,5 27,3 28,1 29,0 29,8 30,6 31,4 32,3 33,1 33,9 34,8 0,5 0,455 1,39 2,37 3,36 4,35 5,35 6,35 7,34 8,34 9,34 10,3 11,3 12,3 13,3 14,3 15,3 16,3 17,3 18,3 19,3 20,3 21,3 22,3 23,3 24,3 25,3 26,3 27,3 28,3 29,3 30,3 31,3 32,3 33,3 34,3 35,3 36,3 37,3 38,3 39,3 40,3 41,3 42,3 43,3 44,3 45,3 46,3 47,3 48,3 49,3 α χ 2f ;α 45 0,95 3,84 5,99 7,81 9,49 11,1 12,6 14,1 15,5 16,9 18,3 19,7 21,0 22,4 23,7 25,0 26,3 27,6 28,9 30,1 31,4 32,7 33,9 35,2 36,4 37,7 38,9 40,1 41,3 42,6 43,8 45,0 46,2 47,4 48,6 49,8 51,0 52,2 53,4 54,6 55,8 56,9 58,1 59,3 60,5 61,7 62,8 64,0 65,2 66,3 67,5 0,975 5,02 7,38 9,35 11,1 12,8 14,4 16,0 17,5 19,0 20,5 21,9 23,3 24,7 26,1 27,5 28,8 30,2 31,5 32,9 34,2 35,5 36,8 38,1 39,4 40,6 41,9 43,2 44,5 45,7 47,0 48,2 49,5 50,7 52,0 53,2 54,4 55,7 56,9 58,1 59,3 60,6 61,8 63,0 64,2 65,4 66,6 67,8 69,0 70,2 71,4 0,99 6,63 9,21 11,3 13,3 15,1 16,8 18,5 20,1 21,7 23,2 24,7 26,2 27,7 29,1 30,6 32,0 33,4 34,8 36,2 37,6 38,9 40,3 41,6 43,0 44,3 45,6 47,0 48,3 49,6 50,9 52,2 53,5 54,8 56,1 57,3 58,6 59,9 61,2 62,4 63,7 64,9 66,2 67,5 68,7 70,0 71,2 72,4 73,7 74,9 76,2 0,995 7,88 10,6 12,8 14,9 16,7 18,5 20,3 22,0 23,6 25,2 26,8 28,3 29,8 31,3 32,8 34,3 35,7 37,2 38,6 40,0 41,4 42,8 44,2 45,6 46,9 48,3 49,6 51,0 52,3 53,7 55,0 56,3 57,6 59,0 60,3 61,6 62,9 64,2 65,5 66,8 68,1 69,3 70,6 71,9 73,2 74,4 75,7 77,0 78,2 79,5 IV. Tafeln α f 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 0,005 28,7 29,5 30,2 31,0 31,7 32,5 33,2 34,0 34,8 35,5 36,3 37,1 37,8 38,6 39,4 40,2 40,9 41,7 42,5 43,3 44,1 44,8 45,6 46,4 47,2 48,0 48,8 49,6 50,4 51,2 52,0 52,8 53,6 54,4 55,2 56,0 56,8 57,6 58,4 59,2 60,0 60,8 61,6 62,4 63,2 64,1 64,9 65,7 66,5 67,3 0,01 30,5 31,2 32,0 32,8 33,6 34,3 35,1 35,9 36,7 37,5 38,3 39,1 39,9 40,6 41,4 42,2 43,0 43,8 44,6 45,4 46,2 47,1 47,9 48,7 49,5 50,3 51,1 51,9 52,7 53,5 54,4 55,2 56,0 56,8 57,6 58,5 59,3 60,1 60,9 61,8 62,6 63,4 64,2 65,1 65,9 66,7 67,6 68,4 69,2 70,1 0,025 33,2 34,0 34,8 35,6 36,4 37,2 38,0 38,8 39,7 40,5 41,3 42,1 43,0 43,8 44,6 45,4 46,3 47,1 47,9 48,8 49,6 50,4 51,3 52,1 52,9 53,8 54,6 55,5 56,3 57,2 58,0 58,8 59,7 60,5 61,4 62,2 63,1 63,9 64,8 65,6 66,5 67,4 68,2 69,1 69,9 70,8 71,6 72,5 73,4 74,2 0,05 35,6 36,4 37,3 38,1 39,0 39,8 40,6 41,5 42,3 43,2 44,0 44,9 45,7 46,6 47,4 48,3 49,2 50,0 50,9 51,7 52,6 53,5 54,3 55,2 56,1 56,9 57,8 58,7 59,5 60,4 61,3 62,1 63,0 63,9 64,7 65,6 66,5 67,4 68,2 69,1 70,0 70,9 71,8 72,6 73,5 74,4 75,3 76,2 77,0 77,9 0,5 50,3 51,3 52,3 53,3 54,3 55,3 56,3 57,3 58,3 59,3 60,3 61,3 62,3 63,3 64,3 65,3 66,3 67,3 68,3 69,3 70,3 71,3 72,3 73,3 74,3 75,3 76,3 77,3 78,3 79,3 80,3 81,3 82,3 83,3 84,3 85,3 86,3 87,3 88,3 89,3 90,3 91,3 92,3 93,3 94,3 95,3 96,3 97,3 98,3 99,3 Für f > 100 ist folgende Näherung geeignet: 46 0,95 68,7 69,8 71,0 72,2 73,3 74,5 75,6 76,8 77,9 79,1 80,2 81,4 82,5 83,7 84,8 86,0 87,1 88,3 89,4 90,5 91,7 92,8 93,9 95,1 96,2 97,4 98,5 99,6 100,7 101,9 103,0 104,1 105,3 106,4 107,5 108,6 109,8 110,9 112,0 113,1 114,3 115,4 116,5 117,6 118,8 119,9 121,0 122,1 123,2 124,3 χ 2f ;α ≈ 1 2 0,975 72,6 73,8 75,0 76,2 77,4 78,6 79,8 80,9 82,1 83,3 84,5 85,7 86,8 88,0 89,2 90,3 91,5 92,7 93,9 95,0 96,2 97,4 98,5 99,7 100,8 102,0 103,2 104,3 105,5 106,6 107,8 108,9 110,1 111,2 112,4 113,5 114,7 115,8 117,0 118,1 119,3 120,4 121,6 122,7 123,9 125,0 126,1 127,3 128,4 129,6 ( 0,99 77,4 78,6 79,8 81,1 82,3 83,5 84,7 86,0 87,2 88,4 89,6 90,8 92,0 93,2 94,4 95,6 96,8 98,0 99,2 100,4 101,6 102,8 104,0 105,2 106,4 107,6 108,8 110,0 111,1 112,3 113,5 114,7 115,9 117,1 118,2 119,4 120,6 121,8 122,9 124,1 125,3 126,5 127,6 128,8 130,0 131,1 132,3 133,5 134,6 135,8 2 ⋅ f − 1 + zα 0,995 80,7 82,0 83,3 84,5 85,7 87,0 88,2 89,5 90,7 92,0 93,2 94,4 95,6 96,9 98,1 99,3 100,6 101,8 103,0 104,2 105,4 106,6 107,9 109,1 110,3 111,5 112,7 113,9 115,1 116,3 117,5 118,7 119,9 121,1 122,3 123,5 124,7 125,9 127,1 128,3 129,5 130,7 131,9 133,1 134,2 135,4 136,6 137,8 139,0 140,2 ) 2 . IV. Tafeln Quantile der F-Verteilung für α = 0,95 8. fN 1 2 3 4 5 6 7 8 9 10 12 14 16 18 20 30 40 161 199 216 225 230 234 237 239 241 242 244 245 246 247 248 250 251 252 253 18,5 19,0 19,2 19,3 19,3 19,3 19,4 19,4 19,4 19,4 19,4 19,4 19,4 19,4 19,5 19,5 19,5 19,5 19,5 10,1 9,55 9,28 9,12 9,01 8,94 8,89 8,85 8,81 8,79 8,74 8,71 8,69 8,67 8,66 8,62 8,59 8,58 8,55 7,71 6,94 6,59 6,39 6,26 6,16 6,09 6,04 6,00 5,96 5,91 5,87 5,84 5,82 5,80 5,75 5,72 5,70 5,66 6,61 5,79 5,41 5,19 5,05 4,95 4,88 4,82 4,77 4,74 4,68 4,64 4,60 4,58 4,56 4,50 4,46 4,44 4,41 5,99 5,14 4,76 4,53 4,39 4,28 4,21 4,15 4,10 4,06 4,00 3,96 3,92 3,90 3,87 3,81 3,77 3,75 3,71 5,59 4,74 4,35 4,12 3,97 3,87 3,79 3,73 3,68 3,64 3,57 3,53 3,49 3,47 3,44 3,38 3,34 3,32 3,27 5,32 4,46 4,07 3,84 3,69 3,58 3,50 3,44 3,39 3,35 3,28 3,24 3,20 3,17 3,15 3,08 3,04 3,02 2,97 5,12 4,26 3,86 3,63 3,48 3,37 3,29 3,23 3,18 3,14 3,07 3,03 2,99 2,96 2,94 2,86 2,83 2,80 2,76 4,96 4,10 3,71 3,48 3,33 3,22 3,14 3,07 3,02 2,98 2,91 2,86 2,83 2,80 2,77 2,70 2,66 2,64 2,59 4,75 3,89 3,49 3,26 3,11 3,00 2,91 2,85 2,80 2,75 2,69 2,64 2,60 2,57 2,54 2,47 2,43 2,40 2,35 4,60 3,74 3,34 3,11 2,96 2,85 2,76 2,70 2,65 2,60 2,53 2,48 2,44 2,41 2,39 2,31 2,27 2,24 2,19 4,49 3,63 3,24 3,01 2,85 2,74 2,66 2,59 2,54 2,49 2,42 2,37 2,33 2,30 2,28 2,19 2,15 2,12 2,07 4,41 3,55 3,16 2,93 2,77 2,66 2,58 2,51 2,46 2,41 2,34 2,29 2,25 2,22 2,19 2,11 2,06 2,04 1,98 4,35 3,49 3,10 2,87 2,71 2,60 2,51 2,45 2,39 2,35 2,28 2,22 2,18 2,15 2,12 2,04 1,99 1,97 1,91 4,17 3,32 2,92 2,69 2,53 2,42 2,33 2,27 2,21 2,16 2,09 2,04 1,99 1,96 1,93 1,84 1,79 1,76 1,70 4,08 3,23 2,84 2,61 2,45 2,34 2,25 2,18 2,12 2,08 2,00 1,95 1,90 1,87 1,84 1,74 1,69 1,66 1,59 50 100 fZ 1 2 3 4 5 6 7 8 9 10 12 14 16 18 20 30 40 50 100 3,94 3,09 2,70 2,46 2,31 2,19 2,10 2,03 1,97 1,93 1,85 1,79 1,75 1,71 1,68 1,57 1,52 1,48 1,39 Quantile der F-Verteilung für α = 0,99 9. fN 4,03 3,18 2,79 2,56 2,40 2,29 2,20 2,13 2,07 2,03 1,95 1,89 1,85 1,81 1,78 1,69 1,63 1,60 1,52 1 2 3 4 5 6 7 8 9 10 12 14 16 18 20 30 40 4052 4999 5404 5624 5764 5859 5928 5981 6022 6056 6107 6143 6170 6191 6209 6260 6286 6302 6334 98,5 99,0 99,1 99,3 99,3 99,3 99,4 99,4 99,4 99,4 99,4 99,4 99,4 99,4 99,5 99,5 99,5 99,5 99,5 34,1 30,8 29,5 28,7 28,2 27,9 27,7 27,5 27,3 27,2 27,1 26,9 26,8 26,8 26,7 26,5 26,4 26,4 26,2 21,2 18,0 16,7 16,0 15,5 15,2 15,0 14,8 14,7 14,6 14,4 14,3 14,2 14,1 14,0 13,8 13,8 13,7 13,6 16,3 13,3 12,1 11,4 11,0 10,7 10,5 10,3 10,2 10,1 9,89 9,77 9,68 9,61 9,55 9,38 9,29 9,24 9,13 13,8 10,9 9,78 9,15 8,75 8,47 8,26 8,10 7,98 7,87 7,72 7,60 7,52 7,45 7,40 7,23 7,14 7,09 6,99 12,2 9,55 8,45 7,85 7,46 7,19 6,99 6,84 6,72 6,62 6,47 6,36 6,28 6,21 6,16 5,99 5,91 5,86 5,75 11,3 8,65 7,59 7,01 6,63 6,37 6,18 6,03 5,91 5,81 5,67 5,56 5,48 5,41 5,36 5,20 5,12 5,07 4,96 10,6 8,02 6,99 6,42 6,06 5,80 5,61 5,47 5,35 5,26 5,11 5,01 4,92 4,86 4,81 4,65 4,57 4,52 4,41 10,0 7,56 6,55 5,99 5,64 5,39 5,20 5,06 4,94 4,85 4,71 4,60 4,52 4,46 4,41 4,25 4,17 4,12 4,01 9,33 6,93 5,95 5,41 5,06 4,82 4,64 4,50 4,39 4,30 4,16 4,05 3,97 3,91 3,86 3,70 3,62 3,57 3,47 8,86 6,51 5,56 5,04 4,69 4,46 4,28 4,14 4,03 3,94 3,80 3,70 3,62 3,56 3,51 3,35 3,27 3,22 3,11 8,53 6,23 5,29 4,77 4,44 4,20 4,03 3,89 3,78 3,69 3,55 3,45 3,37 3,31 3,26 3,10 3,02 2,97 2,86 8,29 6,01 5,09 4,58 4,25 4,01 3,84 3,71 3,60 3,51 3,37 3,27 3,19 3,13 3,08 2,92 2,84 2,78 2,68 8,10 5,85 4,94 4,43 4,10 3,87 3,70 3,56 3,46 3,37 3,23 3,13 3,05 2,99 2,94 2,78 2,69 2,64 2,54 7,56 5,39 4,51 4,02 3,70 3,47 3,30 3,17 3,07 2,98 2,84 2,74 2,66 2,60 2,55 2,39 2,30 2,25 2,13 7,31 5,18 4,31 3,83 3,51 3,29 3,12 2,99 2,89 2,80 2,66 2,56 2,48 2,42 2,37 2,20 2,11 2,06 1,94 50 100 fZ 1 2 3 4 5 6 7 8 9 10 12 14 16 18 20 30 40 50 100 α 0 1 Ff Z ; f N ;α 47 2 7,17 5,06 4,20 3,72 3,41 3,19 3,02 2,89 2,78 2,70 2,56 2,46 2,38 2,32 2,27 2,10 2,01 1,95 1,82 6,90 4,82 3,98 3,51 3,21 2,99 2,82 2,69 2,59 2,50 2,37 2,27 2,19 2,12 2,07 1,89 1,80 1,74 1,60 IV. Tafeln 10. Kritische Werte bn;α für den Vorzeichentest α n 6 7 8 9 10 11 12 13 14 15 0,90 6 6 7 7 8 9 9 10 10 11 0,95 0,975 6 6 7 7 7 8 8 8 9 9 9 10 10 10 10 11 11 12 12 12 α 0,99 0,995 7 8 8 9 9 10 10 10 11 11 11 12 12 12 13 13 13 n 16 17 18 19 20 21 22 23 24 25 0,90 12 12 13 13 14 14 15 16 16 17 0,95 0,975 13 13 13 13 13 14 14 15 15 15 15 16 16 17 16 17 17 18 18 18 0,99 0,995 14 14 14 15 15 15 15 16 16 17 17 17 17 18 18 19 19 19 19 20 Zur Verwendung der Tabellenwerte siehe Abschnitt III.3.5. 11. Kritische Werte für den Korrelationskoeffizienten α α n 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 0,05 0,8783 0,8114 0,7545 0,7067 0,6664 0,6319 0,6021 0,5760 0,5529 0,5324 0,5140 0,4973 0,4821 0,4683 0,4555 0,4438 0,4329 0,4227 0,4132 0,4044 0,3961 0,3882 0,3809 0,3739 0,3673 0,3610 0,01 0,9587 0,9172 0,8745 0,8343 0,7977 0,7646 0,7348 0,7079 0,6835 0,6614 0,6411 0,6226 0,6055 0,5897 0,5751 0,5614 0,5487 0,5368 0,5256 0,5151 0,5052 0,4958 0,4869 0,4785 0,4705 0,4629 n 35 40 45 50 55 60 65 70 75 80 85 90 95 100 150 200 250 300 350 400 500 600 700 800 900 1000 0,001 0,9911 0,9741 0,9509 0,9249 0,8983 0,8721 0,8470 0,8233 0,8010 0,7800 0,7604 0,7419 0,7247 0,7084 0,6932 0,6788 0,6652 0,6524 0,6402 0,6287 0,6178 0,6074 0,5974 0,5880 0,5789 0,5703 0,05 0,3338 0,3120 0,2940 0,2787 0,2656 0,2542 0,2441 0,2352 0,2272 0,2199 0,2133 0,2072 0,2017 0,1966 0,1603 0,1388 0,1241 0,1133 0,1049 0,0981 0,0877 0,0801 0,0741 0,0693 0,0654 0,0620 0,01 0,4296 0,4026 0,3801 0,3610 0,3445 0,3301 0,3173 0,3060 0,2957 0,2864 0,2780 0,2702 0,2631 0,2565 0,2097 0,1818 0,1626 0,1485 0,1375 0,1287 0,1151 0,1051 0,0973 0,0910 0,0858 0,0814 0,001 0,5322 0,5007 0,4742 0,4514 0,4317 0,4143 0,3988 0,3850 0,3724 0,3611 0,3507 0,3412 0,3323 0,3242 0,2660 0,2310 0,2069 0,1891 0,1752 0,1639 0,1467 0,1340 0,1241 0,1161 0,1095 0,1039 Der Korrelationskoeffizient ist signifikant von null verschieden, wenn der Betrag des empirischen Korrelationskoeffizienten größer ist als der hier angegebene Tabellenwert. n bezeichnet dabei den Umfang der Stichprobe, aus der der empirische Korrelationskoeffizient berechnet wurde (vgl. Abschnitt III.3.4.). 48 IV. Tafeln 12. Kritische Werte für Schiefe und Exzess Sn;1-α/2 Wn;α/2 n α = 0,01 α = 0,05 7 8 9 10 12 15 20 25 30 35 40 45 50 55 60 65 70 75 80 85 90 100 110 120 130 140 150 160 170 180 190 200 1,576 1,601 1,577 1,565 1,491 1,462 1,303 1,218 1,114 1,043 0,985 0,934 0,889 0,850 0,816 0,785 0,758 0,733 0,710 0,689 0,670 0,636 0,607 0,581 0,558 0,538 0,519 0,503 0,488 0,474 0,461 0,449 1,215 1,202 1,189 1,157 1,114 1,048 0,951 0,876 0,804 0,762 0,714 0,678 0,648 0,620 0,596 0,575 0,556 0,538 0,522 0,507 0,494 0,470 0,449 0,431 0,414 0,400 0,387 0,375 0,364 0,354 0,345 0,336 Wn;1-α/2 α = 0,01 α = 0,05 1,58 1,66 1,73 1,78 1,83 1,87 1,91 1,94 1,97 2,00 2,02 2,05 2,07 2,08 2,10 2,13 2,15 2,18 2,20 2,22 2,24 2,26 2,28 2,29 2,31 2,32 1,34 1,40 1,45 1,49 1,56 1,64 1,73 1,82 1,89 1,94 1,99 2,03 2,06 2,09 2,12 2,15 2,17 2,19 2,21 2,22 2,24 2,27 2,30 2,32 2,34 2,36 2,37 2,39 2,40 2,41 2,43 2,44 Die Werte wurden [14] entnommen. Zur Verwendung der Tafel siehe Abschnitt III.3.3. 49 α = 0,01 α = 0,05 5,91 5,81 5,69 5,58 5,48 5,38 5,28 5,19 5,11 5,03 4,97 4,90 4,84 4,79 4,74 4,66 4,58 4,52 4,46 4,41 4,36 4,31 4,27 4,23 4,19 4,16 3,85 4,09 4,28 4,40 4,56 4,66 4,68 4,63 4,57 4,51 4,46 4,41 4,36 4,32 4,28 4,24 4,20 4,17 4,14 4,11 4,08 4,03 3,99 3,95 3,92 3,89 3,86 3,83 3,81 3,79 3,77 3,75 V. Literatur V. Literatur 1. Lehrbücher und Aufgabensammlungen [1] Bankhofer, Vogel: Datenanalyse und Statistik - Eine Einführung für Ökonomen im Bachelor. Gabler 2008. [2] Bankhofer, Vogel: Übungsbuch Datenanalyse und Statistik. Springer Gabler 2012. [3] Bleymüller, Gehlert, Gülicher: Statistik für Wirtschaftswissenschaftler. Vahlen 2012. [4] Dürr, Mayer: Wahrscheinlichkeitsrechnung und Schließende Statistik. Carl Hanser 2013. [5] Eckey, Kosfeld, Dreger: Statistik. Grundlagen – Methoden – Beispiele. Gabler 2002. [6] Fahrmeir, Künstler, Pigeot, Tutz: Statistik: Der Weg zur Datenanalyse. Springer 2012. [7] Nollau, Partzsch, Storm, Lange: Wahrscheinlichkeitsrechnung und Statistik in Beispielen und Aufgaben. Teubner 1997. [8] Storm: Wahrscheinlichkeitsrechnung, mathematische Statistik und statistische Qualitätskontrolle. Carl Hanser 2007. 2. Nachschlagewerke und Tabellen [9] Bleymüller, Gehlert: Statistische Formeln, Tabellen und Statistik-Software. Vahlen 2011. [10] Hartung, Elpelt, Klösener: Statistik - Lehr- und Handbuch der angewandten Statistik. Oldenbourg 2009. [11] Hartung, Elpelt: Multivariate Statistik - Lehr- und Handbuch der angewandten Statistik. Oldenbourg 2006. [12] Owen: Handbook of Statistical Tables. Addison-Wesley 1962. [13] Sachs, Hedderich: Angewandte Statistik: Methodensammlung mit R. Springer 2011. 3. Quellennachweis [14] D'Agostino, Stephens: Goodness-of-fit techniques. Marcel Dekker 1986. 50