Statistik für Wirtschaftswissenschaftler Jürgen Dippon Institut für Stochastik und Anwendungen (ISA) Universität Stuttgart 13. September 2010 Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 1 / 464 Teil I Deskriptive Statistik Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 2 / 464 Deskriptive Statistik 1 Einführung 2 Deskriptive Statistik univariater Daten 3 Deskriptive Statistik multivariater Daten Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 3 / 464 1. Einführung 1 Einführung 2 Deskriptive Statistik univariater Daten 3 Deskriptive Statistik multivariater Daten Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 4 / 464 1. Einführung Einführung Grundaufgabe der Statistik Beschreiben (Deskription) Suchen (Exploration) Schlieÿen (Induktion) Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 5 / 464 1. Einführung Die deskriptive Statistik dient zur beschreibenden und graschen Aufarbeitung und Komprimierung von Daten. Beschrieben werden Merkmale oder Variablen, die gewisse Ausprägungen oder Werte besitzen. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 6 / 464 1. Einführung Unterschiedliche Typen von Variablen Zielgröÿen Einussgröÿen oder Faktoren Störgröÿen oder latente Gröÿen Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 7 / 464 1. Einführung Deskriptive Statistik wird zur Datenvalidierung eingesetzt. Deskriptive Statistik verwendet im Gegensatz zur induktiven Statistik keine Wahrscheinlichkeitstheorie. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 8 / 464 1. Einführung Die explorative Statistik, welche auch nicht auf der Wahrscheinlichkeitstheorie basiert, sucht Strukturen oder Besonderheiten in den Daten und dient zur Hypothesengewinnung. Hypothesen können schlieÿlich in der induktiven Statistik formal mit wahrscheinlichkeitstheoretischen Methoden überprüft werden, z.B. kann mit groÿerSicherheit geschlossen werden, dass ein in der Stichprobe gefundener Zusammenhang auch in der Grundgesamtheit vorliegt ? Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 9 / 464 1. Einführung Wichtige Grundbegrie Statistische Einheit: Objekte, an denen interessierende Gröÿen erfasst werden Grundgesamtheit, Population: Menge aller für die Fragestellung relevanten statistischen Einheiten Teilgesamtheit: Teilmenge der Grundgesamtheit Stichprobe: tatsächlich untersuchte Teilmenge der Grundgesamtheit Merkmal: interessierende Gröÿe, Variable Merkmalsausprägung: konkreter Wert des Merkmals für eine statistische Einheit Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 10 / 464 1. Einführung Charakterisierung von Merkmalen diskretes Merkmal: Menge der Merkmalsausprägung ist abzählbar stetiges Merkmal: Merkmale nehmen Werte aus einem Intervall an quasistetige Merkmale: Merkmal ist von seiner Natur her stetig, mögliche Werte aber, z.B. aufgrund des Messprozesses, abzählbar Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 11 / 464 1. Einführung Unterscheidung von Merkmalen aufgrund ihrer Skalenniveaus: 1 Norminalskala: Merkmalsausprägungen sind Namen oder Kategorien (z.B. Haarfarbe, Religion) (endliche Menge) 2 Ordinalskala: Ausprägungen können geordnet werden (z.B. Ratings AAA,AA,A,BBB,. . .,D) 3 Intervallskala: Abstände zwischen Ausprägungen können interpretiert werden (z.B. Temperatur auf der Celsius-Skala, Jahreszahlen, IQ-Skala) 4 Verhältnisskala: Quotienten zwischen Ausprägungen können interpretiert werden (z.B. Temperatur in Kelvin, Gewicht in kg, Preis in Euro) Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 12 / 464 1. Einführung Weitere Unterscheidung: Qualitative Merkmale (endlich viele Ausprägungen, höchstens ordinal skaliert) versus quantitative Merkmale (spiegeln eine Intensität wider) Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 13 / 464 1. Einführung Elemente der Versuchsplanung Notwendigkeit eines Versuchsplans Wie lautet das Ziel der Studie oder des Experiments ? Wie soll das Ziel erreicht werden ? Statistische Methoden Fallzahl Wie lassen sich Störvariablen kontrollieren ? (z.B. durch Homogenisierung, Randomisierung, Parallelisierung, Kontrolle der Störvariablen im Rahmen eines statistischen Modells) Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 14 / 464 1. Einführung Datengewinnung kann erfolgen in einem Experiment einer Erhebung I I im Rahmen einer Vollerhebung einer Stichprobe Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 15 / 464 1. Einführung Verschiedene Methoden der Stichprobenbildung einfache Zufallsstichprobe systematische Ziehung geschichtete Zufallsstichproben Klumpenstichprobe mehrstuge Auswahlverfahren Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 16 / 464 1. Einführung Studiendesigns Querschnittstudie: mehrere Objekte werden zu einem Zeitpunkt beobachtet Zeitreihe: ein Objekt wird zu mehreren Zeitpunkten beobachtet Längsschnittstudie, Panel: mehrere Objekte und zwar immer die gleichen werden zu mehreren Zeitpunkten beobachtet Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 17 / 464 2. Deskriptive Statistik univariater Daten 1 Einführung 2 Deskriptive Statistik univariater Daten Verteilungen und ihre Darstellungen Beschreibung von Verteilungen Lagemaÿe Quantile und Box-Plot Streuungsmaÿe Maÿzahlen für Schiefe und Wölbung Konzentrationsmaÿe Relative Konzentration: Lorenzkurve und Gini-Koezient Alternative Konzentrationsmaÿe Dichtekurven und Normalverteilung 3 Deskriptive Statistik multivariater Daten Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 18 / 464 2. Deskriptive Statistik univariater Daten Deskriptive Statistik univariater Daten In diesem Kapitel betrachten wir Merkmalsträger mit nur einem Merkmal. Im nächsten Kapitel betrachten wir auch Merkmalsträger mit mehreren Merkmalen. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 19 / 464 2. Deskriptive Statistik univariater Daten 2.1. Verteilungen und ihre Darstellungen Häugkeitsverteilung X x| , .{z. . , xn} Ein Merkmal werde an n Untersuchungseinheiten beobachtet: 1 sog. Urliste, Roh- oder Primärdaten Problem: schon bei moderatem Stichprobenumfang unübersichtlich a , . . . , ak h(aj ) = hj f (aj ) = fj = hnj h , . . . , fk f , . . . , fk k n Die dabei auftretenden verschiedenen Merkmalsausprägungen werden mit bezeichnet 1 ( ≤ ) xi x , . . . , xn aj Anzahl der aus 1 mit d.h. relative Häugkeit von 1 absolute Häugkeitsverteilung 1 relative Häugkeitsverteilung Jürgen Dippon (ISA) aj xi = aj absolute Häugkeit der Ausprägung Statistik für Wirtschaftswissenschaftler 13. September 2010 20 / 464 2.1. Verteilungen und ihre Darstellungen 2. Deskriptive Statistik univariater Daten Grasche Methoden für univariate Daten Stabdiagramm: Trage über a , . . . , ak h , . . . , hk 1 senkrechten Strich (Stab) mit Höhe f jeweils einen zur 1 x fk -Achse (oder 1 , . . . , ) ab. Säulendiagramm: Wie Stabdiagramm, aber mit Rechtecken statt Strichen x Balkendiagramm: Wie Säulendiagramm, aber mit vertikal statt horizontal gelegter -Achse j : fj · Kreisdiagramm: Flächen der Kreissektoren proportional zu den Häugkeiten: Winkel des Kreissektors Jürgen Dippon (ISA) 360 ◦ Statistik für Wirtschaftswissenschaftler 13. September 2010 21 / 464 2. Deskriptive Statistik univariater Daten 2.1. Verteilungen und ihre Darstellungen Stamm-Blatt-Diagramm: Die Urliste wird bis auf Rundungen in einer dem Histogramm ähnlichen Darstellung reproduziert.Das Diagramm wird erzeugt mittels: <− c ( 2 . 4 6 , stem ( x ) ; x 2.3 , 3.1 , 3.6 , 3.8 , 4.4 , 2.7 , 5.9 , 5.9 , 4.1 , 4.4 , 3 Das ausgegebene Diagramm ist: 2 3 4 5 | | | | 357 1668 144 99 Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 22 / 464 2. Deskriptive Statistik univariater Daten Jürgen Dippon (ISA) 2.1. Verteilungen und ihre Darstellungen Statistik für Wirtschaftswissenschaftler 13. September 2010 23 / 464 2. Deskriptive Statistik univariater Daten 2.1. Verteilungen und ihre Darstellungen Abbildung: Weitere Methoden zur Datenvisualisierung Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 24 / 464 2. Deskriptive Statistik univariater Daten 2.1. Verteilungen und ihre Darstellungen Histogramm Für gröÿere Datensätze besser geeignet: c c ), [c , c ), . . . , [ck , ck ) Histogramme: Gruppiere die Daten in Klassen, bestehend aus benachbarten [ 0, Intervallen 1 1 2 −1 Zeichne über diesen Klassen Rechtecke mit: dj = cj − cj Breite : Höhe : gleich (oder proportional zu) Fläche : gleich (oder proportional zu) Jürgen Dippon (ISA) −1 hj dj hj bzw bzw Statistik für Wirtschaftswissenschaftler fj dj fj 13. September 2010 25 / 464 2. Deskriptive Statistik univariater Daten 2.1. Verteilungen und ihre Darstellungen Histogramm ist so konstruiert, dass die dargestellten Flächen proportional zu den absoluten bzw. relativen Häugkeiten (Prinzip der Flächentreue). Wähle, falls möglich, die Klassenbreiten d , . . . , dk 1 gleich. Faustregeln für die Klassenzahl: k = [n], k = [n], k = [ 2 Jürgen Dippon (ISA) 10 log10 Statistik für Wirtschaftswissenschaftler n] 13. September 2010 26 / 464 2. Deskriptive Statistik univariater Daten 2.1. Verteilungen und ihre Darstellungen Viele empirische Verteilungen sind unimodal (eingipig), es sind aber auch bi- oder multimodale (zwei- oder mehrgipige) Verteilungen zu beobachten (z.B. bei geschichteten Daten) Symetrische Verteilung linkssteife oder rechtsschiefe Verteilungen rechtssteife oder linksschiefe Verteilungen Ist das betrachtete Merkmal ordinalskaliert, so lassen sich die beobachteten Ausprägungen ordnen: Jürgen Dippon (ISA) a 1 a < ... < k Statistik für Wirtschaftswissenschaftler 13. September 2010 27 / 464 2.1. Verteilungen und ihre Darstellungen 2. Deskriptive Statistik univariater Daten Kumulierte Häugkeitsverteilung Absolute kumulierte Häugkeitsverteilung: ∀ x ∈R H (x ) Hierbei ist = = aj xi ha ha mit die gröÿte Ausprägung mit Jürgen Dippon (ISA) x x h aj ≤ x i≤ P ( 1 ) + . . . + ( j ) = i : ai ≤ x i Anzahl der Werte (also ist Statistik für Wirtschaftswissenschaftler aj +1 > x ) 13. September 2010 28 / 464 2. Deskriptive Statistik univariater Daten 2.1. Verteilungen und ihre Darstellungen Empirische Verteilungsfunktion Wichtiger: Relative kumutierte Häugkeitsverteilung oder Verteilungsfunktion F (x ) = H (nx ) = = f (a ) + . . . + f (aj ) = relativer Anzahl der Werte 1 wobei aj ≤ x und Jürgen Dippon (ISA) aj +1 > x X i : ai ≤ x fi xi empirische mit xi ≤ x . Statistik für Wirtschaftswissenschaftler 13. September 2010 29 / 464 2. Deskriptive Statistik univariater Daten 2.2. Beschreibung von Verteilungen Lagemaÿe Gesucht sind Maÿzahlen oder Parameter von Verteilungen Ein L L(x + a, . . . , xn + a) = L(x , . . . , xn) + a Lagemaÿ (im engeren Sinne) ist eine Abbildung : Rn → R, falls ∀ a∈R ∀ x1 ,...,xn ∈R Jürgen Dippon (ISA) 1 Statistik für Wirtschaftswissenschaftler 1 13. September 2010 30 / 464 2. Deskriptive Statistik univariater Daten 2.2. Beschreibung von Verteilungen Arithmetisches Mittel Beispiele für Lagemaÿe: Arithmetisches Mittel: x̄ = n (x 1 1 f fk =1 Für Häugkeitsdaten mit Ausprägungen Häugkeiten 1 , . . . , gilt x̄ = a f 1 n X x n xi i a , . . . , ak + . . . + n) = 1 und relativen 1 af 1 + ... + k k = k X j =1 aj fj (gewichtetes Mittel) Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 31 / 464 2.2. Beschreibung von Verteilungen 2. Deskriptive Statistik univariater Daten Das arithmetische Mittel ist i.a. nur für quantitative Merkmale sinnvoll deniert. Für das arithmetische Mittel gilt i =1 (Schwerpunkteigenschaft) n n , . . . , nr x̄ = n (n x̄ Stichprobe vom Umfang Umfängen 1 n X x x̄ ( i− )=0 r x̄ . . . , x̄r r X + . . . + nr x̄r ) = n ni x̄i , verteilt auf und arith. Mitteln 1 1 1 Schichten mit jeweiligen , so gilt 1 1 i =1 Beobachtung: arithmetische Mittel reagieren empndlich gegen Ausreiÿer, wohingegen der Median ein Jürgen Dippon (ISA) robustes Lagemaÿ ist. Statistik für Wirtschaftswissenschaftler 13. September 2010 32 / 464 2. Deskriptive Statistik univariater Daten 2.2. Beschreibung von Verteilungen Median Urliste x , . . . , xn 1 x ≤ ... ≤ x n x , . . . , xn ( xmed = x (nx n + x n geordnete Urliste Der Median von (1) ( ) ist deniert durch 1 1 ( + 2 ) 1 2 (2) ( 2 +1) ) für für n n ungerade gerade Denition sinnvoll für ordinale Merkmale (oder besser) Eigenschaften des Medians: Mindestens 50% der Daten sind x x ( ≤ med ≥ med Median häug einfacher zu interpretieren als das arithmetische Mittel Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 33 / 464 2. Deskriptive Statistik univariater Daten 2.2. Beschreibung von Verteilungen Modus Der x , . . . , xn xmod = Modus von 1 ist deniert durch Ausprägung mit gröÿter Häugkeit Modus nur eindeutig, falls die Häugkeitsverteilung ein eindeutiges Maximum besitzt. Denition schon für nominalskalierte Merkmale sinnvoll. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 34 / 464 2. Deskriptive Statistik univariater Daten 2.2. Beschreibung von Verteilungen Eigenschaften der drei genannten Lageparameter 1 Arithm. Mittel und Median stimmen bei diskreten Merkmalen i.a. mit xi keiner der möglichen Ausprägungen überein. 2 Werden die Daten linear transformiert, d.h. yi = a + bxi so gilt dies auch für die drei oben genannten Lageparameter 3 Das arithmetische Mittel minimiert die Funktion n Q (z ) = X(xi − x ) 2 i =1 Der Median minimiert die Funktion n A(z ) = X |xi − x | i =1 Der Modus minimiert die Funktion Jürgen Dippon (ISA) n I (z ) = X 1[x 6=z ] i i = 1 Statistik für Wirtschaftswissenschaftler 13. September 2010 35 / 464 2. Deskriptive Statistik univariater Daten 2.2. Beschreibung von Verteilungen Lageregeln Symetrische Verteilungen Linkssteile Verteilungen Rechtssteile Verteilungen Jürgen Dippon (ISA) x̄ ≈ xmed ≈ xmod x̄ > xmed > xmod x̄ < xmed < xmod Statistik für Wirtschaftswissenschaftler 13. September 2010 36 / 464 2.2. Beschreibung von Verteilungen 2. Deskriptive Statistik univariater Daten Im Folgenden stellen wir noch weitere Maÿe für die Lage einer Verteilung vor, die jedoch keine Lageparameter im oben genannten Sinne sind ri i Zur Motivation ein Beispiel: Sei der Zins im n Kn = K ( + r ) · . . . · ( + rn) n Y =K ( + ri ) -ten Jahr Dann beträgt das Kapital im -ten Jahr 0 1 0 Jürgen Dippon (ISA) 1 1 1 i =1 Statistik für Wirtschaftswissenschaftler 13. September 2010 37 / 464 2.2. Beschreibung von Verteilungen 2. Deskriptive Statistik univariater Daten Geometrisches Mittel Das x , . . . , xn xgeom = (x · . . . · xn) n geometrische Mittel zu den Faktoren 1 ist 1 1 !1 n n Y (1 + i ) i =1 r Da xgeom ≤ x̄ ist der mittlere jahrliche Zinsfaktor. täuscht Jürgen Dippon (ISA) x̄ statt xgeom überhöhte Wachstumsraten vor. Statistik für Wirtschaftswissenschaftler 13. September 2010 38 / 464 2.2. Beschreibung von Verteilungen 2. Deskriptive Statistik univariater Daten Harmonisches Mittel Das harmonische Mittel xharm = 1 Pn 1 n i = 1 xi 1 ist z.B. zur Ermittlung der Durchschnittsgeschwindigkeit geeignet. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 39 / 464 2. Deskriptive Statistik univariater Daten 2.2. Beschreibung von Verteilungen Quantile und Box-Plot x Jeder Wert ≤ p xp mit 0 p < p< Damit gilt für das np] [ Dabei ist Speziell: x x x 0.25 0.5 = = 0.75 p x 1, für den mindestens ein Anteil und mindestens ein Anteil 1 − -Quantil: xp = x np , xp ∈ [x np , x np ([ ]+1)] ( ) ( wenn der Daten np p p der Daten ist, heiÿt -Quantil. nicht ganzzahlig np ≤ np +1) ], wenn die gröÿte ganze Zahl mit ≥ p ganzzahlig 25%-Quantil = unteres Quartil 50%-Quantil = Median = 75%-Quantil = oberes Quartil Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 40 / 464 2. Deskriptive Statistik univariater Daten 2.2. Beschreibung von Verteilungen Quantile und Box-Plot Abbildung: Darstellung der Quantile Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 41 / 464 2. Deskriptive Statistik univariater Daten 2.2. Beschreibung von Verteilungen dQ = x Interquartilsabstand: 0.75 − x 0.25 5-Punkte-Zusammenfassung einer Verteilung: x ,x ,x ,x ,x min 0.25 med 0.75 max Grasche Darstellung der 5-Punkte-Zusammenfassung einer Verteilung mittels eines Box-Plots Abbildung: Box Plot Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 42 / 464 2.2. Beschreibung von Verteilungen 2. Deskriptive Statistik univariater Daten Streuungsmaÿe Ein S : Rn → R S (x + a, . . . , xn + a) = S (x , . . . , xn) Streuungsmaÿ (im engeren Sinne) ist eine Abbildung die ∀ a∈R ∀ x1 ,...,xn 1 Beispiele für Streuungsmaÿe: x 1 x Stichprobenspannweite (n) − (1) Interquartilsabstand Q = 0.75 − Standardabweichung d x s̃ , für x 0.25 wobei s̃ = n {(x − x ) 2 die sog. 1 1 2 x x 2 + ... + ( n − ) } = n X n i (xi − x ) 1 2 =1 empirische Varianz der Stichprobe. Beachte: s̃ ist nur für metrische Merkmale deniert! Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 43 / 464 2. Deskriptive Statistik univariater Daten 2.2. Beschreibung von Verteilungen Im Falle von Häugkeitsdaten gilt: s̃ 2 a − x) f =( 1 2 1 a x f 2 + ... + ( k − ) k = s̃ n X (xi − x ) Häug wird statt der empirischen Varianz s = n− 2 1 2 k X j =1 auch die a x f ( j − )2 j Stichprobenvarianz 2 1 i =1 verwendet. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 44 / 464 2.2. Beschreibung von Verteilungen 2. Deskriptive Statistik univariater Daten Da x x x x n n ( n − ) bereits durch die ersten ( − 1) festgelegt. ( − 1) ist deshalb auch die Anzahl der P ( i − ) = 0, Abweichungen ist Freiheitsgrade. Verschiebungssatz: ∀ Für c= i ∈R n X i =1 x c 2 ( i− ) = n X i =1 x x nx c ( i − )2 + ( − )2 0 folgt die praktische Darstellung s̃ ( 2 = n X n i xi − x xi yi = a + bxi 1 s̃y = b s̃x 2 Jürgen Dippon (ISA) 2 =1 Bei linearer Transformation der Daten Transformationssatz ) 2 2 2 bzw. zu folgt der s̃y = |b|s̃x Statistik für Wirtschaftswissenschaftler 13. September 2010 45 / 464 2.2. Beschreibung von Verteilungen 2. Deskriptive Statistik univariater Daten Standardabweichung und Varianz sind sehr empndlich gegen Ausreiÿer. Robuste Alternativen: Mittlere Abweichung vom Median n X n i |xi − x 1 0.5 | =1 Mediane Abweichung vom Median Median von { x −x 1 0.5 Ein Streumaÿ im weiteren Sinne ist der x x ,..., n − 0.5 } Variationskoezient v = xs̃ welcher für Merkmale mit nichtnegativen Ausprägungen und positivem arithmetischem Mittel sinnvoll deniert ist. Der Variationskoezient liefert ein maÿstabsunabhängiges Streumaÿ. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 46 / 464 2.2. Beschreibung von Verteilungen 2. Deskriptive Statistik univariater Daten Maÿzahlen für Schiefe und Wölbung Verteilungen können sich nicht nur hinsichtlich Lage und Schiefe, sondern auch in Bezug auf Symmetrie oder Schiefe und durch ihre Wölbung (Kurtosis) unterscheiden. Quantilskoezient der Schiefe: gp = (x p= . 1− Für x x x x 0 25 erhält man den Bei x p − med ) − ( med − p ) 1−p − p symmetrischen linkssteilen rechtssteilen Jürgen Dippon (ISA) für ein festes p∈( , 0 0.5) Quartilskoezienten. Verteilungen gilt gp ≈ gp > gp < 0 0 0 Statistik für Wirtschaftswissenschaftler 13. September 2010 47 / 464 2. Deskriptive Statistik univariater Daten 2.2. Beschreibung von Verteilungen Maÿzahlen für Schiefe und Wölbung Der Nenner in gp stellt sicher, dass g −1 ≤ p ≤ 1. Quantilskoezienten sind robust im Gegensatz zum der Schiefe: gm = ms̃ 3 3 s̃ mit n X Momentenkoezient m = n (xi − x̄ ) i 1 3 3 =1 gm Interpretation wie beim Quantilskoezienten. Division mit 3 macht Jürgen Dippon (ISA) maÿstabsunabhängig. Statistik für Wirtschaftswissenschaftler 13. September 2010 48 / 464 2. Deskriptive Statistik univariater Daten 2.2. Beschreibung von Verteilungen Wölbungsmaÿ von Fisher γ= m s̃ 4 4 −3 mit n m = n X(xi − x̄ ) i 1 =1 Bei Normalverteilung gilt bei spitzeren Verteilungen gilt bei acheren Verteilungen gilt Jürgen Dippon (ISA) 4 4 Statistik für Wirtschaftswissenschaftler γ≈0 γ>0 γ<0 13. September 2010 49 / 464 2.3. Konzentrationsmaÿe 2. Deskriptive Statistik univariater Daten Konzentrationsmaÿe Seien x , ..., xn 1 x x die geordneten Messwerte eines kardinal skalierten nicht-negativen Merkmals (also 0 interpretiert werden). ≤ 1 ≤ ... ≤ n , Dierenzen können Frage: Wie kann die Konzentration der gemessenen Werte auf die Merkmalsträger beschrieben werden? Beispiel: Marktkonzentration in den Städten A, B, C. Umsätze in 1000 EUR/Monat Anbieter Nr. A B C 1 50 170 20 2 50 10 40 3 50 10 60 4 50 10 80 In A Umsätze gleichmäÿig über Anbieter verteilt. In B Umsätze konzentriert auf Anbieter Nr. 1. In C Umsätze variieren über die Anbieter. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 50 / 464 2. Deskriptive Statistik univariater Daten 2.3. Konzentrationsmaÿe Relative Konzentration: Lorenzkurve und Gini-Koezient Für die geordnete Uriste x 1 x ≤ ... ≤ n Streckenzug durch die Punkte ergibt sich die Lorenzkurve als u v ), ..., (un, vn) = ( , (0, 0), ( 1 , mit uj = nj Pj vj = Pnii xxii =1 1 1 1) Anteil der Merkmalsträger kummulierte relative Merkmalssumme =1 Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 51 / 464 2. Deskriptive Statistik univariater Daten 2.3. Konzentrationsmaÿe Zum Eingangsbeispiel j nj xi xi vj PA xi xi vj xi PB xi vj PC 1 0,25 50 50 0,25 10 10 0,05 20 20 2 0,5 50 100 0,5 10 20 0,1 40 60 0,1 0,3 3 0,75 50 150 0,75 10 30 0,15 60 120 0,6 4 1 50 200 1 170 200 1 80 200 1 Abbildung: Lorenzkurve Eigenschaften der Lorenzkurve: Monotonie und Konvexität (Wölbung Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 nach 52 / 464 2. Deskriptive Statistik univariater Daten 2.3. Konzentrationsmaÿe Gini-Koezient Der Gini-Koezient ist deniert durch G Gmin =n zwischen Diagonale und Lorenzkurve = Fläche Fläche zwischen Diagonale und u-Achse = 2 · Fläche zwischen Diagonale und Lorenzkurve x Extreme Ausprägungen des Gini-Koezienten: Gmax = 0 n xn 6= bei maximaler und x = ... = n Konzentration 1 = ... = n−1 = 0 bei Nullkonzentration −1 0 1 x x Normierter Gini-Koezient: G ∗ = Jürgen Dippon (ISA) G Gmax = n G n− 1 mit Wertebereich [0, 1] Statistik für Wirtschaftswissenschaftler 13. September 2010 53 / 464 2. Deskriptive Statistik univariater Daten 2.3. Konzentrationsmaÿe Gini-Koezient Zur Interpretation Gini-Koezient und Lorenzkurve sollten immer gemeinsam interpretiert werden, da zwei sehr unterschiedliche Lorenzkurven zu demselben Gini-Koezienten führen können. Lorenzkurve und Gini-Koezient zielen auf die relative Konzentration G= ab. Haben zwei Anbieter jeweils einen 50%igen Anteil so liefert der Gini- Koezient 0, also keine Konzentration. Der Gini-Koezient berücksichtigt nicht die Anzahl der Marktteilnehmer. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 54 / 464 2.3. Konzentrationsmaÿe 2. Deskriptive Statistik univariater Daten Alternative Konzentrationsmaÿe Wieviel Prozent der Marktteilnehmer teilen sich wieviel Prozent des Volumens? CRg Wieviele Marktteilnehmer teilen sich wieviel Prozent des Volumens? g ∈ { , ..., n} Konzentrationsrate CRg n CRg = X pi , pi = Pnjxi xj i n g Lorenzkurve und Gini-Koezient zielen auf die relative Konzentration: Die Konzentrationsrate berücksichtigt die absolute Anzahl der Anbieter: Für vorgegebenes 1 ist die deniert durch: wobei = − +1 CRg =1 den Merkmalsanteil der i-ten Einheit bezeichnet. gibt also den relativen Anteil der g gröÿten Merkmalsträger in der Merkmalssumme wieder. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 55 / 464 2.3. Konzentrationsmaÿe 2. Deskriptive Statistik univariater Daten Herndahl-Index Der Herndahl-Index ist deniert durch n X H = pi , 2 wobei i =1 pi = Pnjxi xj =1 den Merkmalsanteil der i-ten Einheit bezeichnet. Extremkonstellationen: Hmin = n Hmax = 1 1 pi = n pn = bei gleichen Marktanteilen, d.h. (also 1 ) bei Monopolisten, d.h. (also 1) x 1 x 1 x , xn > = ... = n x = ... = n−1 = 0 0 H umso kleiner, je mehr Anbieter mit groÿem Marktanteil. Gini-Koezient in diesem Fall immer gleich Null. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 56 / 464 2. Deskriptive Statistik univariater Daten 2.4. Dichtekurven und Normalverteilung Dichtekurven und Normalverteilung Zur Darstellung der Verteilung eines metrischen Merkmals kann z.B. die empirische Verteilungsfunktion oder - instruktiver - das Histogramm verwendet werden. Abbildung: Empirische Verteilungsfunktion Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 57 / 464 2. Deskriptive Statistik univariater Daten 2.4. Dichtekurven und Normalverteilung Nachteil: selbst bei stetigen Merkmalen ist das Histogramm eine Treppenfunktion, die u.U. groÿe Sprünge ausweist. f fx Deshalb: Approximiere das Histogramm durch eine stetige Dichtefunktion. f x dx p∈( , REine stetige Funktion =1 R ( ) Für 0 1) ist p= xp Z xp −∞ Jürgen Dippon (ISA) ist eine das Dichte(kurve), wenn ( ) ≥ 0 und p-Quantil f (x )dx der Dichte und 1 − f , falls p= Statistik für Wirtschaftswissenschaftler Z ∞ xp f (x )dx ! 13. September 2010 58 / 464 2.4. Dichtekurven und Normalverteilung 2. Deskriptive Statistik univariater Daten Dichte der Normalverteilung Wichtiges Beispiel einer Dichtekurve: Dichte der Normalverteilung f (x |µ, σ) = σ√ π 1 2 µ∈R heiÿt Mittelwert, exp σ>0 − 1 x − µ 2 2 σ , Standardabweichung von Denitionen dieser beiden Begrie später) Jürgen Dippon (ISA) x ∈R ! Statistik für Wirtschaftswissenschaftler f (x |µ, σ) (genaue 13. September 2010 59 / 464 2. Deskriptive Statistik univariater Daten 2.4. Dichtekurven und Normalverteilung Viele in der Anwedung auftretende Verteilungen können unter Verwendung einer Normalverteilung gut approximiert werden. Sind und x , . . . , xn s̃ 1 σ durch Beobachtungen eines solchen Merkmals, so wird µ durch approximiert. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 x̃ 60 / 464 2.4. Dichtekurven und Normalverteilung 2. Deskriptive Statistik univariater Daten Ist f die Dichtekurve einer normalverteilten Variablen und Standardabweichung σ, mit Mittelwert µ Z = X σ− µ die Dichtekurve einer Normalverteilung mit Z X dann besitzt die standardisierte Variable µ=0 und σ=1 Standardnormalverteilung und die Variable standardnormalverteilt. Diese Normalverteilung heiÿt entsprechend Die zugehörige Dichtekurve wird mit z φ 1 φ( ) = √ 2π bezeichnet, also exp − z 2 2 Quantile der Standardnormalverteilung ndet man in Tabellen oder mittels Statistiksoftware. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 61 / 464 2. Deskriptive Statistik univariater Daten Quantile xp zp 2.4. Dichtekurven und Normalverteilung einer Normalverteilung mit Mittelwert mit den den Quantilen Transformation µ und Varianz σ stehen der Standardnormalverteilung über die lineare xp = µ + σzp in Beziehung. -σ -Regel für normalverteilte Merkmale: Daraus ergibt sich die 3 68% der Beobachtungen liegen im Intervall 95% der Beobachtungen liegen im Intervall 99, 7% der Beobachtungen liegen im Intervall Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler µ±σ µ ± 2σ µ ± 3σ 13. September 2010 62 / 464 2. Deskriptive Statistik univariater Daten 2.4. Dichtekurven und Normalverteilung Normal-Quantil-Plots Statt die Häugkeitsverteilung der Beobachtungen einer Variablen X direkt mit einer Normalverteilung zu vergleichen, werden bei Normal-Quantil-Plots die Quantile der Häugkeitsverteilung mit den entsprechenden Quantilen der Standardnormalverteilung verglichen: x z x z (1) , . . . , (n) (1) , . . . , (n) geordnete Stichprobe 1 n -Quantil, 1−0,5 n n -Quantil oder besser n n−0,5 -Quantil der ..., n ..., -Quantil, Standardnormalverteilung Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 63 / 464 2. Deskriptive Statistik univariater Daten Der Normal-Quantil-Plot besteht aus den Punkten z ,x ( im 2.4. Dichtekurven und Normalverteilung zx (1) z x (1) ), . . . , ( (n) , (n) ) - -Koordinatensystem. z x Ist die empirische Verteilung der Beobachtung approximativ z =x standard-normalverteilt, liegen die Punkte oder auf der Winkelhalbierenden Jürgen Dippon (ISA) ( (i ) , (i ) ) Statistik für Wirtschaftswissenschaftler des NQ-Plots nahe an 13. September 2010 64 / 464 3. Deskriptive Statistik multivariater Daten 1 Einführung 2 Deskriptive Statistik univariater Daten 3 Deskriptive Statistik multivariater Daten Diskrete multivariate Daten Quantitative multivariate Merkmale Grasche Darstellungen quantitativer Merkmale Zusammenhangsmaÿe bei quantitativen Merkmalen Lineare Regression R Beispiel Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 65 / 464 3. Deskriptive Statistik multivariater Daten Deskriptive Statistik multivariater Daten In diesem Abschnitt stellen wir grasche und rechnerische Methoden zur Darstellung multivariater Daten vor. Insbesondere geht es um die Frage, wie eventuelle Zusammenhänge von Merkmalen erkannt werden können. Gemäÿ dem deskriptive Ansatz können wir diese Frage hier nur recht vorläug beantworten. Erst unter Verwendung von wahrscheinlichkeitstheoretischen Methoden kann im Rahmen der induktiven Statistik diese Frage zufriedenstellend gelöst werden. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 66 / 464 3. Deskriptive Statistik multivariater Daten 3.1. Diskrete multivariate Daten Diskrete multivariate Daten Eine Sonntagsfrage lieferte folgende Häugkeitstabelle oder Kontigenztafel: CDU/CSU SPD FDP Grüne Rest Männer 144 153 17 26 95 435 Frauen 200 145 30 50 71 496 344 298 47 76 166 931 Y Besteht ein Zusammenhang zwischen dem Geschlecht Parteipräferenz ? Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler X und der 13. September 2010 67 / 464 3. Deskriptive Statistik multivariater Daten 3.1. Diskrete multivariate Daten Kontingenztafel der absoluten Häugkeiten a . . . , ak X b , . . . , bm Y (k × m)-Kontingenztafel der absoluten Häugkeiten 1 Merkmalswerte der Variablen 1 Merkmalswerte der Variablen X hij = h(ai , bj ) h , . . . , hk h ,...,hm n 1· ·1 · · b a h ak hk h Y 1 ... 1 11 ... . . . . . . 1 ... ·1 ... bm hm h hkm hk hm 1 1· . . . . . . · n X Y · absolute Häugkeit der Kombination Randhäugkeiten der Variablen Randhäugkeiten der Variablen Stichprobenumfang Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler ab ( i, j) (Zeilensummen) (Spaltensummen) 13. September 2010 68 / 464 3.1. Diskrete multivariate Daten 3. Deskriptive Statistik multivariater Daten Kontingenztafel der relativen Häugkeiten k m)-Kontingenztafel der relativen Häugkeiten ( × X fij = Phnij m fi = j fij = hni f j = Pki fij = fnj · · · =1 · =1 Jürgen Dippon (ISA) b a f a k fk f Y 1 ... 1 11 ... . . . . . . 1 ... ·1 ... bm fm f fkm fk fm 1 1· . . . . . . · n · relative Häugkeit der Kombination ab X Y ( i, j) relative Randhäugkeiten der Variablen (Zeilensummen) relative Randhäugkeiten der Variablen (Spaltensummen) Statistik für Wirtschaftswissenschaftler 13. September 2010 69 / 464 3.1. Diskrete multivariate Daten 3. Deskriptive Statistik multivariater Daten X = ai Y bedingte relative X = ai Y |X = ai fy (b |ai ) = hhii , . . . , fy (bm|ai ) = hhimi X Y = bj X |Y = bj fX (a |bj ) = hh jj , . . . , fX (ak |bj ) = hhkjj Y X= h = / = = fY ( | )= h / h = / = = fY ( | )= h / Wählt man fest, so erhält man die Häugkeitsverteilung von , gegeben durch unter der Bedingung , kurz 1 1 · · Analog: Die bedingte relative Häugkeitsverteilung von Bedingung , kurz unter der , gegeben durch 1 1 · · Beispiel: Bedinte relative Häugkeit von (Parteienpräferenz), gegeben männlich, CDU/CSU männlich SPD männlich usw. Jürgen Dippon (ISA) 11 144 931 144 ·1 344 931 344 12 153 931 153 ·2 298 931 298 Statistik für Wirtschaftswissenschaftler 0.42 0.51 13. September 2010 70 / 464 3. Deskriptive Statistik multivariater Daten 3.1. Diskrete multivariate Daten Grasche Darstellung von (k × m)-Kontingenztafeln Säulendiagramm Säulenhöhe proportional zu hij bzw. fij Mosaikplot Flächeninhalt der Rechtecke proportional zu Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler hij 13. September 2010 bzw. fij 71 / 464 3. Deskriptive Statistik multivariater Daten 3.1. Diskrete multivariate Daten Zusammenhangsanalyse in Kontingenztafeln Wie kann ein Zusammenhang von nominalen Merkmalen quantiziert werden? b a h ak hk h X Sind die beiden Merkmale Y 1 ... 1 11 ... . . . . . . X und 1 ... ·1 ... Y bm hm h hkm hk hm 1 1· . . . . . . · n · unabhängig, würde man erwarten, dass die Spalten proportional proportional zur Spalte der Zeilensummen sind. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 72 / 464 3.1. Diskrete multivariate Daten 3. Deskriptive Statistik multivariater Daten Also: h j ≈ hkj ∀ j ∈{1,...,m} . . . h hk 1 proportional zu 1· . . . · oder äquivalent h j /h j ≈ hkj /h j X ∀ j ∈{1,...,m} Y = bj 1 . . . · Kurz: ∀ i ,j Jürgen Dippon (ISA) proportional zu · Denn dann wäre die Verteilung von h /n hk /n · 1· . . . · unabhängig von der Ausprägung hij ≈ hi n· h j · · Statistik für Wirtschaftswissenschaftler 13. September 2010 73 / 464 3. Deskriptive Statistik multivariater Daten 3.1. Diskrete multivariate Daten Wir bezeichnen jetzt mit h h ij eij = hi · ·h·j n die beobachteten Häugkeiten Zusammenhang zwischen den Merkmalen vorliegt Der sog. X Y die Häugkeiten, die zu erwarten sind, wenn kein χ2 -Koezient χ2 = und ist deniert durch h h h k X m X ( ij − eij )2 eij i =1 j =1 ∈ [0, ∞) und dient zur Messung der Diskrepanz zwischen der beobachteten Verteilung und der Verteilung, die man bei Unabhängigkeit der beiden Merkmale erwarten würde. Der Nenner dient zur Normierung. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 74 / 464 3. Deskriptive Statistik multivariater Daten Zur Interpretation des Hängen Hängen X X und und Y Y Jürgen Dippon (ISA) 3.1. Diskrete multivariate Daten χ2 -Koezienten: voneinander ab, sollte χ2 groÿ sein. nicht voneinander ab, sollte χ2 nahe bei Null sein. Statistik für Wirtschaftswissenschaftler 13. September 2010 75 / 464 3.1. Diskrete multivariate Daten 3. Deskriptive Statistik multivariater Daten Da χ2 noch vom Stichprobenumfang Kontingenzkoezienten K= n s und den χ2 + χ2 " r ∈ 0, n abhängt, betrachtet man auch den M− M 1 # wobei M= min{ k , m} korrigierten Kontingenzkoezienten K ∗ =q K M −1 M ∈ [0, 1] Erst die induktive Statistik stellt Methoden zur Verfügung, um zu X Y entscheiden, ob die beobachteten Daten Anlass geben, an der Unabhängigkeit der Merkmale Jürgen Dippon (ISA) und zu zweifeln. Statistik für Wirtschaftswissenschaftler 13. September 2010 76 / 464 3. Deskriptive Statistik multivariater Daten 3.2. Quantitative multivariate Merkmale Multivariate quantitative Merkmale Zur Untersuchung quantitativer multivariater Daten sind die im letzten Abschnitt vorgestellten Methoden zur Untersuchung qualitativer multivariater Daten meist ungeeignet. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 77 / 464 3. Deskriptive Statistik multivariater Daten 3.2. Quantitative multivariate Merkmale Grasche Darstellungen quantitativer Merkmale Für bivariate Daten: Streudiagramme 2-dimensionale Histogramme und Dichten Für multivariate Daten: Matrix von Streudiagrammen Matrix von 2-dimensionalen Histogrammen und Dichten Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 78 / 464 3. Deskriptive Statistik multivariater Daten 3.2. Quantitative multivariate Merkmale Zusammenhangsmaÿe bei quantitativen Merkmalen Bravais-Pearson-Korrelationskoezient zur Stichprobe x y ), . . . , (xn, yn) Pn r = pPn (ixi −(xx̄i )−px̄ )(Pyin −(ȳy)i − ȳ ) Der ( 1, ist deniert durch 1 =1 i =1 2 i =1 2 ∈ [−1, 1] Der Bravais-Pearson-Korrelationskoezient ist ein Maÿ für die Stärke des linearen Zusammenhangs zweier metrischer Merkmale. r> r< r= |r | < 0 positive Korrelation, gleichsinniger linearer Zusammenhang 0 negative Korrelation, gegensinniger linearer Zusammenhang 0 keine Korrelation, kein linearer Zusammenhang 0.5 < | | < 0.8 0.8 < | | 0.5 r r Jürgen Dippon (ISA) schwache Korrelation mittlere Korrelation starke Korrelation Statistik für Wirtschaftswissenschaftler 13. September 2010 79 / 464 3. Deskriptive Statistik multivariater Daten 3.2. Quantitative multivariate Merkmale Beispiel Obwohl der Bravais-Pearson-Koezient nur für metrische Variablen deniert ist, liefert er auch für dichotome, d.h. binäre, Variablen X und Y ein sinnvolles Ergebnis, falls man 0 und 1 als Kodierung für die Merkmalsvariable verwendet. Damit lassen sich die Ergebnisse in einer (2 × 2)-Tabelle zusammenfassen: Y X Jürgen Dippon (ISA) 0 1 0 1 11 12 21 22 ·1 ·2 h h h h h h h h 1· 2· n Statistik für Wirtschaftswissenschaftler 13. September 2010 80 / 464 3. Deskriptive Statistik multivariater Daten 3.2. Quantitative multivariate Merkmale Beispiel Der Bravais-Pearson-Korrelationskoezient stimmt in diesem Fall mit dem sog. φ-Koezienten überein: r = φ = h√hh h−hh hh 11 22 1· 2· 12 21 ·1 ·2 Es gilt übrigens: φ2 = wobei 2 χ der 2 χ χ2 n -Koezient für Häugkeitstabellen ist. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 81 / 464 3.2. Quantitative multivariate Merkmale 3. Deskriptive Statistik multivariater Daten Korrelationskoezient von Spearman Stichprobe x , ..., xn 1 Geordnete Stichprobe Der x Rang rg( i ) von x xi x (1) , ..., (n) ist denitert als die Position von geordneten Stichprobe. Es gilt also: x rg( (i ) ) = xi in der i Beispiel: Stichprobe 4, 2, 5, 0 geordnete Stichprobe 0, 2, 4, 5 Ränge der Stichprobe 3, 2, 4, 1 Ränge der geordneten Stichprobe 1, 2, 3, 4 Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 82 / 464 3.2. Quantitative multivariate Merkmale 3. Deskriptive Statistik multivariater Daten Korrelationskoezient von Spearman Treten gewisse Werte mehrfach in der Stichprobe auf, verwendet man den mittleren Rang: Stichprobe 4, 3, 2, 3, 5 geordnete Stichprobe 2, 3, 3, 4, 5 Ränge 1, 2.5, 2.5, 4, 5 x̄ ȳ Ersetzt man im Korrelationskoezienten von Bravais-Pearson die X- und Y-Werte durch ihre Ränge und 1 (= n+ ), 2 so erhält man den rsp = qPn Pn i =1 i =1 Jürgen Dippon (ISA) und durch die Mittelwerte der Ränge Korrelationskoezient von Spearman: xi ) − n y 1 · rg( i ) − n+ 2 q ∈ [−1, 1] n+1 2 · Pn rg( ) − n+1 2 rg( i ) − i i =1 2 2 rg( x +1 2 y Statistik für Wirtschaftswissenschaftler 13. September 2010 83 / 464 3. Deskriptive Statistik multivariater Daten 3.2. Quantitative multivariate Merkmale Korrelationskoezient von Spearman Der Korrelationskoezient von Spearman ist ein Maÿ für die Stärke des monotonen Zusammenhangs zweier ordinaler Merkmale. rsp > rsp < rsp = 0 gleichsinniger monotoner Zusammenhang 0 gegensinniger monotoner Zusammenhang 0 kein monotoner Zusammenhang Der Spearmansche Korrelationskoezient eignet sich oensichtlich auch für Messungen, die nur als Rangreihen vorliegen. Beispiel: Vergleich zweier Weinkenner, die zehn Weinproben der Qualität nach ordnen. (R-Beispiel) Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 84 / 464 3. Deskriptive Statistik multivariater Daten 3.2. Quantitative multivariate Merkmale Invarianzeigenschaften Werden die ursprünglichen Merkmale x und y linear transformiert zu: x̃ = ax x + bx ỹ = ay y + by mit mit ax 6= ay 6= 0 0 so folgt für die Bravais-Pearson-Korrelation zwischen rx̃ ỹ = · · · = |aaxx||aayy | rxy rx̃ ỹ = +rxy ax ay also (je nach Vorzeichen von Jürgen Dippon (ISA) und oder x̃ und ỹ rx̃ ỹ = −rxy ). Statistik für Wirtschaftswissenschaftler 13. September 2010 85 / 464 3. Deskriptive Statistik multivariater Daten 3.2. Quantitative multivariate Merkmale Invarianzeigenschaften g h Werden die ursprünglichen Merkmale x und y mittels zweier streng monotoner (wachsender oder fallender) Transformationen x̃ = g (x ) ỹ = h(y ) transformiert zu: x̃ ỹ rsp (x̃ , ỹ ) = −rsp (x , y ) so folgt für die Spearman-Korrelation zwischen rsp (x̃ , ỹ ) = +rsp (x , y ) g h (je nachdem, ob Jürgen Dippon (ISA) und oder und und sich gleich- oder gegenseitig verhalten) Statistik für Wirtschaftswissenschaftler 13. September 2010 86 / 464 3. Deskriptive Statistik multivariater Daten 3.2. Quantitative multivariate Merkmale Korrelation und Kausalität y Korrelation ist ein Maÿ für die Stärke des Zusammenhangs zwischen x und . Über die Richtung der Wirkung falls überhaupt vorhanden kann damit prinzipiell keine Aussage getroen werden. Probleme Scheinkorrelation: Eine hohe Korrelation zweier Merkmale entsteht dadurch, dass korreliert sind. x und y x und über ein drittes Merkmal hoch y Beispiel: Gesundheitszustand ∼ Abstand zur Hochspannungsleitung Verdeckte Korrelation: Obwohl keine statistische Korrelation berechnet wurde, besteht sachlich eine eindeutige Korrelation. Beispiel: Blutdrucksenkung und Dosierung Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 87 / 464 3. Deskriptive Statistik multivariater Daten 3.2. Quantitative multivariate Merkmale Beispiel Abbildung: Blutdrucksenkung und Dosierung Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 88 / 464 3. Deskriptive Statistik multivariater Daten 3.2. Quantitative multivariate Merkmale Lineare Regression Y f :R→R X Y = f (X ) Problem: Gesucht ist eine Funktion Merkmal f in Abhängigkeit des Merkmals , welche das metrische beschreibt. Im Allgemeinen existiert jedoch kein solch klarer Zusammenhang. Deshalb: Suche Y so, dass obiger Zusammenhang nur ungefähr erfüllt ist: mit einem von Y = f (X ) + Fehlerterm , wobei ein möglichst groÿer Anteil der Variabilität durch f erklärt werden soll. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 89 / 464 3.2. Quantitative multivariate Merkmale 3. Deskriptive Statistik multivariater Daten Ein solches Modell heiÿt Bei einem Regressionsmodell. linearen Regressionsmodell nimmt man f (X ) = α + βX an. Für eine Stichprobe und eine Steigung β x y ), . . . , (xn, yn) ( 1, 1 sind also ein gesucht, so dass y -Achsenabschnitt α yi = |α +{zβx}i +i ŷi mit möglichst kleinen Fehlern (Residuen) Jürgen Dippon (ISA) i . Statistik für Wirtschaftswissenschaftler 13. September 2010 90 / 464 3.2. Quantitative multivariate Merkmale 3. Deskriptive Statistik multivariater Daten Methode der kleinsten Quadrate Wähle α und β so, dass n Q (α, β) = n X i 1 i =1 n 1 X 2 n i (yi − ŷi ) n X = n (yi − (α + βxi )) = 2 =1 1 2 i =1 minimal. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 91 / 464 3.2. Quantitative multivariate Merkmale 3. Deskriptive Statistik multivariater Daten Nullstellen der partiellen Ableitung von Q α̂ Q Ermittle die Kleinste-Quadrate-Schätzer β̂ von α bzw. β nach α und β : und als n 2 X ∂ (α, β) ! =− ( i − (α + β i )) = 0 ∂α i =1 n X ∂ (α, β) 2 ! =− ( i − (α + β i )) i = 0 ∂β i =1 Q n y x n y x x (1) (2) (sog. Normalengleichungen). Also n X n X y i − α̂ − β̂ ni n i xi = n n n X X X n yi xi − n α̂ xi − n β̂ xi = 1 1 =1 1 Jürgen Dippon (ISA) (3) 0 (4) =1 1 i =1 0 1 i =1 2 i =1 Statistik für Wirtschaftswissenschaftler 13. September 2010 92 / 464 3.2. Quantitative multivariate Merkmale 3. Deskriptive Statistik multivariater Daten (3): Aus α̂ = Eingesetzt in ȳ − β̂x̄ (4): n X n X n X n X n i yi xi − n ȳ i xi + n β̂x̄ i xi − n β̂ i xi 1 1 1 =1 =1 1 =1 2 =0 =1 Dies ist äquivalent zu n X n i yi xi − ȳ x̄ = n β̂ 1 1 =1 Also i =1 xi − nx̄ 2 ! 2 y x ȳ x̄ = n PniP(nxi − x̄ )(yi − ȳ ) = s̃xy s̃x x nx̄ n i (xi − x̄ ) Pn i i− β̂ = Pin=1 2 i =1 i − Jürgen Dippon (ISA) n X 1 2 =1 1 =1 Statistik für Wirtschaftswissenschaftler 2 2 13. September 2010 93 / 464 3. Deskriptive Statistik multivariater Daten 3.2. Quantitative multivariate Merkmale Bestimmtheitsmaÿ und Residualanalyse Zerlegung der Gesamtstreuung (sum of squares total) SQT = = = n X i =1 n X i =1 n X i =1 = y ȳ ( i − )2 y ŷ ŷ ȳ ( i − i + i − )2 y ŷ ( i − i )2 + n X i =1 (ŷi − ȳ ) 2 +2 n X |i =1 SQR + SQE y ŷ )(ŷi − ȳ ) ( i− i {z = 0 mit (1) und (2) } Residualstreuung (sum of squares residual) und erklärte Streuung (sum of squares explained). in die die Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 94 / 464 3. Deskriptive Statistik multivariater Daten 3.2. Quantitative multivariate Merkmale Der dritte Term ist gleich Null, da n X y ŷ )ȳ ȳ n X y ŷ ( i − i ) = 0 mit (1) ( i− i = i =1 i =1 n n n X X X ( i − i )β̂ i ( i − i )α̂ + ( i− i i= i =1 i =1 i =1 n n X X ( i − i) i = α̂ ( i − i ) +β̂ i|=1 {z i =1 } | {z } y ŷ )ŷ y ŷ y ŷ = 0 mit (1) Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler y ŷ x y ŷ x = 0 mit (2) 13. September 2010 95 / 464 3. Deskriptive Statistik multivariater Daten Das 3.2. Quantitative multivariate Merkmale Bestimmtheitsmaÿ n (ŷ − ȳ ) SQE = P i Pin R = SQT ( y i − ȳ ) i 2 2 =1 2 =1 ∈ [0, 1] gibt den relativen Anteil der erklärten Streuung an der Gesamtstreuung an. Beziehung zum Korrelationskoezienten: R = rxy 2 Jürgen Dippon (ISA) 2 Statistik für Wirtschaftswissenschaftler 13. September 2010 96 / 464 3.2. Quantitative multivariate Merkmale 3. Deskriptive Statistik multivariater Daten Begründung: Es gilt n X n X ŷ n ŷi = n i i = (ȳ − β̂x̄ ) + β̂x̄ = ȳ ¯= 1 1 =1 x (α̂ + β̂ i ) = α̂ + =1 mit β̂x̄ (3) daraus n X i =1 (ŷi − ȳ ) 2 = = n X i =1 n X (ŷi − ŷ¯) 2 x (α̂ + β̂ i − α̂ − 2 β̂x̄ ) i =1 n X = β̂ 2 ( i − )2 i =1 x x̄ Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 97 / 464 3. Deskriptive Statistik multivariater Daten 3.2. Quantitative multivariate Merkmale und schlieÿlich R Je näher R 2 2 (ŷ ȳ y ȳ x x̄ y ȳ P Pn 2 β̂ 2 ni=1 ( i − )2 i = 1 i − ) = Pn = Pn 2 2 i =1 ( i − ) i =1 ( i − ) 2 2 2 xy x xy 2 = xy = = 2 )2 2 x y x y s̃ s̃ (s̃ s̃ s̃ s̃ s̃ r bei 1 liegt, umso besser ist die Modellanpassung. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 98 / 464 3.2. Quantitative multivariate Merkmale 3. Deskriptive Statistik multivariater Daten Graphische Methode zur Überprüfung der Modellanpassung x i n Residualplots {( i , ˆi ) : ∈ {1, . . . , }} (Hier Grak einfügen) Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 99 / 464 3. Deskriptive Statistik multivariater Daten 3.2. Quantitative multivariate Merkmale R Beispiel Jürgen Dippon (ISA) Abbildung: Beispiel mit trees Datensatz Statistik für Wirtschaftswissenschaftler 13. September 2010 100 / 464 3. Deskriptive Statistik multivariater Daten 3.2. Quantitative multivariate Merkmale Abbildung: Scatterplot Erstellung der Grak mittels: attach ( t r e e s ) ; p a i r s ( t r e e s ) ; Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 101 / 464 Teil II Wahrscheinlichkeitstheorie Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 102 / 464 Wahrscheinlichkeitstheorie 4 Wahrscheinlichkeitsrechnung 5 Diskrete Zufallsvariablen 6 Stetige Zufallsvariablen 7 Grenzwertsätze 8 Mehrdimensionale Zufallsvariablen Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 103 / 464 4. Wahrscheinlichkeitsrechnung 4 Wahrscheinlichkeitsrechnung Denition und Begri der Wahrscheinlichkeit Laplace-Experimente Zufallsvariablen und Kombinatorik Modell mit Zurücklegen Modell ohne Zurücklegen Permutation Modell ohne Zurücklegen und ohne Berücksichtigung der Reihenfolge Modell mit Zurücklegen und ohne Berücksichtigung der Reihenfolge Bedingte Wahrscheinlichkeiten Unabhängigkeit von zwei Ereignissen Totale Wahrscheinlichkeit Der Satz von Bayes Unendliche Grundgesamtheit 5 Diskrete Zufallsvariablen 6 Stetige Zufallsvariablen Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 104 / 464 4. Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsrechnung Problem der Generalisierung: Besteht eine oensichtliche Korrelation zweier Merkmale (oder eine andere Eigenschaft) nur zufällig in der Stichprobe oder aber auch mit hoher Sicherheit in der Gesamtpopulation? Dieses Problem kann nur gelöst werden, wenn man in der Lage ist, zufälligen Ereignissen eine Wahrscheinlichkeit zuzuweisen. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 105 / 464 4. Wahrscheinlichkeitsrechnung 4.1. Denition und Begri der Wahrscheinlichkeit Denition und Begri der Wahrscheinlichkeit Ein Zufallsvorgang führt zu einem von mehreren sich gegenseitig ausschlieÿenden Ereignissen. Es ist vor der Durchführung ungewiss, welches Ergebnis tatsächlich eintreten wird. Der Ergebnisraum oder Stichprobenraum Ω ist die Menge aller Ereignisse ω des Zufallsvorgangs. Ereignisse. Die einelementigen Teilmengen ω von Ω werden als Elementarereignisse bezeichnet. Teilmengen von Ω Jürgen Dippon (ISA) heiÿen (Zufalls-) Statistik für Wirtschaftswissenschaftler 13. September 2010 106 / 464 4. Wahrscheinlichkeitsrechnung 4.1. Denition und Begri der Wahrscheinlichkeit Denition und Begri der Wahrscheinlichkeit Sei A⊂Ω ein Ereignis. Das Ergebnis A ω ∈ Ā A=∅ A=Ω Ā = Ω \ A A∪B A∩B Falls ω∈ ω∈Ω werde beobachtet. , so sagt man, dass das Ereignis A eintritt. Falls , so sagt man A tritt nicht ein. Falls , ist A das unmögliche Ereignis Falls , ist A das sichere Ereignis ist das Ereignis, dass A nicht eintritt. ist das Ereignis, dass A oder B eintritt (im nichtexklusiven Sinne). ist das Ereignis, dass A und B eintritt. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 107 / 464 4. Wahrscheinlichkeitsrechnung 4.1. Denition und Begri der Wahrscheinlichkeit Denition und Begri der Wahrscheinlichkeit Beispiel: Einmaliges Werfen eines Würfels. Ω = {1, 2, 3, 4, 5, 6} = {2 , 4 , 6 } = {1 , 2 } ∩ = {4 , 6 } A B A B̄ Jürgen Dippon (ISA) Grundraum, gleichzeitig das sichere Ereignis Ereignis, dass eine gerade Zahl geworfen wird Ereignis, dass eine Zahl ≤2 geworfen wird Ereignis, dass eine gerade Zahl Statistik für Wirtschaftswissenschaftler ≥3 geworfen wird 13. September 2010 108 / 464 4. Wahrscheinlichkeitsrechnung 4.1. Denition und Begri der Wahrscheinlichkeit Denition und Begri der Wahrscheinlichkeit A⊂Ω P : {A : A ⊂ Ω} A Um den unsicheren Ausgang eines Zufallsvorganges zu bewerten, ordnet man jedem Ereignis P (A) heiÿt eine reelle Zahl ∈ [0, 1] zu: → [0, 1] 7→ P (A) Wahrscheinlichkeit des Ereignisses A. Diese Abbildung P, das sog. Wahrscheinlichkeitsmaÿ, muss die Axiome von Kolmogorov erfüllen (hier für Ω endlich) (K1) (K2) (K3) P (A) ≥ P (Ω) = A∩B =∅ 0 1 Falls , dann gilt P (A ∪ B ) = P (A) + P (B ) Diese Axiome werden motiviert durch die Eigenschaften relativer Häugkeiten, die zur Interpretation der Wahrscheinlichkeit herangezogen werden. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 109 / 464 4. Wahrscheinlichkeitsrechnung 4.1. Denition und Begri der Wahrscheinlichkeit Beispiel Beispiel: n-malige unabhängige Wiederholung eines Würfelexperiments, das den Ergebnissraum Ω = {1, ..., 6} fi A={ ≤ f (A) f (A) = f + f + f besitzt. relative Häugkeit, dass die Zahl i oben liegt eine Zahl 3 liegt oben} = {1, 2, 3} relative Häugkeit des Eintretens von Ereignis A 1 Jürgen Dippon (ISA) 2 3 Statistik für Wirtschaftswissenschaftler 13. September 2010 110 / 464 4.1. Denition und Begri der Wahrscheinlichkeit 4. Wahrscheinlichkeitsrechnung Beispiel Oder für allgemeines A⊂Ω f (A) = f (Ω) = : X i ∈A f i |{z} ∈ [0, 1] ≥0 1 Für wachsendes n erwarten wir, dass sich f(A) bei einem gewissen Wert P (A) stabilisiert (empirisches Gesetz der groÿen Zahlen). Dieser Wert wird als Wahrscheinlichkeit des Eintretens von A angesehen (frequentistische oder objektivistische Interpretation des Wahrscheinlichkeitsbegris). Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 111 / 464 4. Wahrscheinlichkeitsrechnung 4.1. Denition und Begri der Wahrscheinlichkeit Rechenregeln für Wahrscheinlichkeiten 1 2 3 4 5 0 PA ≤ ( )≤1 für alle A⊂Ω P (∅) = P (A) ≤ P (B ) A ⊂ B A, B ⊂ Ω P (Ā) = − P (A) Ā = Ω \ A P (A ∪ ... ∪ An) = P (A ) + ... + P (An) Ai ⊂ Ω P (A ∪ B ) = P (A) + P (B ) − P (A ∩ B ) 0 falls 1 1 und mit 1 falls disjunkt und 6 A , ..., An A, B ⊂ Ω paarweise 1 für beliebige Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 112 / 464 4. Wahrscheinlichkeitsrechnung 4.2. Laplace-Experimente Laplace-Experimente N Bei manchen Zufallsexperimenten mit endlichem Grundraum (also Ω = {1, ..., }) ist es sinnvoll davon auszugehen, dass alle Elementarereignisse dieselbe Wahrscheinlichkeit, die sog. Laplace-Wahrscheinlichkeit, besitzen: P ({j }) = pj = N = |Ω| 1 1 für alle j ∈ { , ..., N } 1 Unter Verwendung der 5. Rechenregel folgt für jedes Ereignis A in einem Laplace-Experiment P (A) = X j ∈A = |A| P ({j }) = |Ω| Anzahl der für A günstigen Ergebnisse Anzahl aller möglichen Ergebnisse Achtung: Es gibt viele Zusallsexperimente, in denen die Elementarereignisse nicht gleichwahrscheinlich sind. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 113 / 464 4. Wahrscheinlichkeitsrechnung 4.2. Laplace-Experimente Laplace-Experimente Beispiel: Wie groÿ ist die Wahrscheinlichkeit bei dreimaligem Münzwurf mindestens einmal Wappen zu erzielen. Ergebnisraum: W , W , W ), (W , W , Z ), ..., (Z , Z , Z )} P ({ω}) = |Ω| = ∀ } |A| = |A| P (A) = |Ω| = } |A| = P (Ā) = − P (A) = − = Ω = {( |Ω| = 8 1 1 A={ 8 ω∈Ω mindestens einmal Wappen , 7. Also 7 Ā = { 8 keinmal Wappen , 1. Also 1 Jürgen Dippon (ISA) 1 7 1 8 8 Statistik für Wirtschaftswissenschaftler 13. September 2010 114 / 464 4. Wahrscheinlichkeitsrechnung 4.3. Zufallsvariablen und Kombinatorik Zufallsvariablen und Kombinatorik Modell: N n Kugeln mit Nummern 1,...,N benden sich in einer Urne. Ziehe in zufälliger Weise Kugeln, entweder mit oder ohne Zurücklegen. Ergebnis: geordnetes n-Tupel E , ..., En) ( 1 mit Besitzt jede dieser Stichproben vom Umfang Ei ∈ G = { , ..., N } n 1 . dieselbe Wahrscheinlichkeit, so spricht man von einer einfachen Stichprobe. Aufgabe: Bestimme diese Wahrscheinlichkeit Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 115 / 464 4. Wahrscheinlichkeitsrechnung 4.3. Zufallsvariablen und Kombinatorik Modell mit Zurücklegen N n Bei einer Ziehung mit Zurücklegen aus einer Grundgesamtheit vom Umfang ist die Anzahl der möglichen Stichproben vom Umfang N| · N{z· ... · N} = N n gegeben als: n−mal Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 116 / 464 4. Wahrscheinlichkeitsrechnung 4.3. Zufallsvariablen und Kombinatorik Modell ohne Zurücklegen N n Bei einer Ziehung ohne Zurücklegen aus einer Grundgesamtheit vom Umfang ist die Anzahl der möglichen Stichproben vom Umfang gegeben als: N · (N − | 1) N −n+ · ... · ( {z n−Faktoren 1) = } = Jürgen Dippon (ISA) N · (N − ) · ... · (N − n) · ... · N! (N − n)! Statistik für Wirtschaftswissenschaftler 1 1 1 13. September 2010 117 / 464 4.3. Zufallsvariablen und Kombinatorik 4. Wahrscheinlichkeitsrechnung Permutation Werden alle N N Permutation der Nummern {1, ..., }. Bei N E , ..., EN ) Kugeln aus der Urne ohne Zurücklegen gezogen und gemäÿ der Reihenfolge des Ziehens angeordnet, so ist ( 1 eine unterscheidbaren Objekten gibt es N · (N − 1) · ··· · 1 = N! verschiedene Permutationen. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 118 / 464 4.3. Zufallsvariablen und Kombinatorik 4. Wahrscheinlichkeitsrechnung Modell ohne Zurücklegen und ohne Berücksichtigung der Reihenfolge N n Bei einer Ziehung ohne Zurücklegen aus einer Grundgesamtheit vom Umfang ist die Anzahl der möglichen Stichproben vom Umfang Nichtbeachten der Reihenfolge: N · (N − 1) N −n+ · ... · ( ! n 1) = = N n heiÿt N n N · (N − ) · ... · n!(N − n)! N n 1 bei 1 Binomialkoezient und es gilt: N N = 0, Jürgen Dippon (ISA) N = 1, 1 = N, N = 0 Statistik für Wirtschaftswissenschaftler 1, falls N<n 13. September 2010 119 / 464 4. Wahrscheinlichkeitsrechnung 4.3. Zufallsvariablen und Kombinatorik Beispiel Ziehung der Lottozahlen Anzahl der Möglichkeiten 6 Zahlen aus 49 Zahlen zu ziehen, wobei die Reihenfolge nicht beachtet wird, 49 6 Alle diese 49 6 = 49! 43!6! = 13983816 Zahlen können als gleichwahrscheinliche Elementarereignisse angesehen werden. Damit P( 6 Richtige ) = = Jürgen Dippon (ISA) Anzahl der günstigen Ergebnisse Anzahl der möglichen Ergebnisse 1 13983816 = 0.000000072 Statistik für Wirtschaftswissenschaftler 13. September 2010 120 / 464 4. Wahrscheinlichkeitsrechnung 4.3. Zufallsvariablen und Kombinatorik Modell mit Zurücklegen und ohne Berücksichtigung der Reihenfolge N n Bei einer Ziehung mit Zurücklegen aus einer Grundgesamtheit vom Umfang ist die Anzahl der möglichen Stichprobem vom Umfang Nichtbeachten der Reihenfolge gegeben durch: Begründung: Durch N− N +n− n 1 N Ei N 1 Trennzeichen können voneinander abgegrenzt werden. Auf diese bei n verschiedene Zellen Zellen werden insgesamt i Kreuze verteilt, wobei Mehrfachbesetzungen erlaubt sind. Die Anzahl der Kreuze gibt an, wieviele Kugeln vom Typ in Zelle liegen, z.B. ×|| × ×| × | . . . | × ×| Die Anzahl solcher Aufteilungen der Kreuze ist Jürgen Dippon (ISA) N +n−1. n Statistik für Wirtschaftswissenschaftler 13. September 2010 121 / 464 4. Wahrscheinlichkeitsrechnung 4.3. Zufallsvariablen und Kombinatorik Übersicht ohne Zurücklegen mit Berücksichtigen der Reihenfolge ohne Berücksichtigen der Reihenfolge Jürgen Dippon (ISA) N! (N −n)! N n mit Zurücklegen Statistik für Wirtschaftswissenschaftler Nn N +n−1 n 13. September 2010 122 / 464 4. Wahrscheinlichkeitsrechnung 4.4. Bedingte Wahrscheinlichkeiten Bedingte Wahrscheinlichkeiten Analog zum (empirischen) Begri der bedingten relativen Häugkeit A B denieren wir den (theoretischen) Begri der bedingten Wahrscheinlichkeit eines Ereignisses Jürgen Dippon (ISA) gegeben ein Ereignis . Statistik für Wirtschaftswissenschaftler 13. September 2010 123 / 464 4. Wahrscheinlichkeitsrechnung 4.4. Bedingte Wahrscheinlichkeiten Beispiel: einmaliges Werfen eines Würfels A B Ereignis, dass Augenzahl gerade Ereignis, dass Augenzahl ≤3 P (A) = 3 6 Wie groÿ ist die Wahrscheinlichkeit von Augenzahl ≤ 3? P (A|B ) = = Jürgen Dippon (ISA) Anzahl der für A Anzahl der für 1 = A 2 , wenn bekannt ist, dass und B 1 B günstigen Ergebnisse möglichen Ergebnisse 3 Statistik für Wirtschaftswissenschaftler 13. September 2010 124 / 464 4. Wahrscheinlichkeitsrechnung 4.4. Bedingte Wahrscheinlichkeiten Allgemein denieren wir (unter Verwendung der Beziehung zwischen relativen Häugkeiten und Wahrscheinlichkeiten): A, B ⊂ Ω A B Seien von unter und P (B ) > deniert als Jürgen Dippon (ISA) 0. Dann ist die bedingte Wahrscheinlichkeit P (A|B ) = P (PA(∩B )B ) Statistik für Wirtschaftswissenschaftler 13. September 2010 125 / 464 4. Wahrscheinlichkeitsrechnung 4.4. Bedingte Wahrscheinlichkeiten Rechenregeln für bedingte Wahrscheinlichkeiten Seien A, B ⊂ Ω und P (B ) > P (·|B ) : {A : A ⊂ Ω} → [ , ] A 7→ P (A|B ) P (B |B ) = 0. Dann gilt bei fest gehaltenem B 0 1 ist wieder eine Wahrscheinlichkeit mit Jürgen Dippon (ISA) 1 Statistik für Wirtschaftswissenschaftler 13. September 2010 126 / 464 4.4. Bedingte Wahrscheinlichkeiten 4. Wahrscheinlichkeitsrechnung Die Axiome von Kolmogorov gelten entsprechend für Wahrscheinlichkeiten Zu bedingte K ) A , A , B ⊂ Ω, A ∩ A = ∅, P (B ) > P (A ∪ A |B ) = P ((A P∪(BA )) ∩ B ) P ((A ∩ B ) ∪ (A ∩ B )) = P (B ) P (A ∩ B ) + P (A ∩ B ) = P (B ) = P (A |B ) + P (A |B ) ( 3 : 1 2 1 1 0: 2 1 2 2 1 2 1 1 Jürgen Dippon (ISA) 2 2 Statistik für Wirtschaftswissenschaftler 13. September 2010 127 / 464 4. Wahrscheinlichkeitsrechnung 4.4. Bedingte Wahrscheinlichkeiten Aus der Denition der bedingten Wahrscheinlichkeit folgt sofort der A B ⊂ Ω P (B ) > P (A ∩ B ) = P (A|B ) · P (B ) Produktsatz: Seien , Jürgen Dippon (ISA) und 0. Dann gilt Statistik für Wirtschaftswissenschaftler 13. September 2010 128 / 464 4. Wahrscheinlichkeitsrechnung 4.5. Unabhängigkeit von zwei Ereignissen Unabhängigkeit von zwei Ereignissen B Ist die Wahrscheinlichkeit des Ereignisses Ereignis eingetreten ist, d.h. A unabhängig davon, ob das P (A|B ) = P (A) A B P (A ∩ B ) = P (A) ⇐⇒ P (A ∩ B ) = P (A) · P (B ) ( ) ⇐⇒ P (B ) so werden die Ereignisse Da und (1) als stochastisch unabhängig angesehen. 1 denieren wir: Zwei Ereignisse falls A⊂Ω Jürgen Dippon (ISA) B ⊂Ω (stochastisch) unabhängig P (A ∩ B ) = P (A) · P (B ) und heiÿen Statistik für Wirtschaftswissenschaftler , 13. September 2010 129 / 464 4. Wahrscheinlichkeitsrechnung 4.5. Unabhängigkeit von zwei Ereignissen Beispiel: Zweimaliges Würfeln Ω = {(1, 1), . . . , (1, 6), (2, 1), . . . , (6, 6)} |Ω| = 36 1 ∀ ({ω}) = 36 P A = {( , ), . . . , ( , )} B = {( , ), . . . , ( , )} P (A) = P (B ) = = A ∩ B = {( , )} ω∈Ω 1 1 1 6 1 1 6 1 6 36 1 1 ⇒ A und B eine 1 im ersten Wurf eine 1 im zweiten Wurf 1 6 eine 1 im ersten und im zweiten Wurf P| (A{z∩ B}) = P| {z(A}) · P| {z(B}) 1 36 1 6 1 6 sind stochastisch unabhängige Ereignisse Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 130 / 464 4. Wahrscheinlichkeitsrechnung 4.5. Unabhängigkeit von zwei Ereignissen Beispiel: Urne mit den Zahlen 1, 2, 3, 4 Zweimaliges Ziehen mit Zurücklegen: Ω = {(1, 1), (1, 2), . . . , (4, 4)} mit |Ω| = 16 Zweimaliges Ziehen ohne Zurücklegen: Ω = {(1, 2), (1, 3), . . . , (4, 3)} mit |Ω| = 12 A={ B ={ Die Eins wird beim ersten Mal gezogen} Die Zwei wird beim zweiten Mal gezogen} Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 131 / 464 4. Wahrscheinlichkeitsrechnung 4.5. Unabhängigkeit von zwei Ereignissen Ziehen mit Zurücklegen P (A) P (B ) P (A) · P (B ) P (A ∩ B ) A B Also sind und 4 16 4 16 = = 1 16 1 16 Ziehen ohne Zurücklegen 1 4 1 4 3 12 3 12 = = 1 16 1 12 1 4 1 4 beim Ziehen mit Zurücklegen stochastisch unabhängig, nicht jedoch beim Ziehen ohne Zurücklegen. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 132 / 464 4. Wahrscheinlichkeitsrechnung 4.6. Totale Wahrscheinlichkeit Totale Wahrscheinlichkeit A A Ω = 1 ∪ 2 eine disjunkte Zerlegung des ( 1 ∩ 2 = ∅), so gilt für ein Ereignis ⊂ Ω Ω A A B B = (B ∩ A ) ∪ (B ∩ A ) (B ∩ A ) ∩ (B ∩ A ) = ∅ (K ) P (B ) = P (B ∩ A ) + P (B ∩ A ) = P (B |A ) · P (A ) + P (B |A ) · P (A ) Ist 1 und mit Axiom wobei 2 1 2 3 1 1 Jürgen Dippon (ISA) Ergebnisraumes 2 1 2 Statistik für Wirtschaftswissenschaftler 2 13. September 2010 133 / 464 4. Wahrscheinlichkeitsrechnung Etwas allgemeiner gilt der Sei Satz der totalen Wahrscheinlichkeit: A , . . . , Ak B ⊂Ω 1 4.6. Totale Wahrscheinlichkeit eine disjunkte Zerlegung von Ω. Dann gilt für k P (B ) = X P (B |Ai ) · P (Ai ) i =1 Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 134 / 464 4. Wahrscheinlichkeitsrechnung 4.6. Totale Wahrscheinlichkeit Beispiel: Alarmanalyse A={ } E ={ P (A|E ) = , P (A|Ē ) = , P (E ) = , Einbruch}, Alarm , Ē = { kein Einbruch} 0 99 W für Alarm bei Einbruch 0 005 W für Fehlalarm 0 001 W für Einbruch Wie groÿ ist die Wahrscheinlichkeit für einen Alarm? P (A) = P (A|E ) · P (E ) + P (A|Ē ) · P (Ē ) = 0, 99 · 0, 001 + 0, 005 · (1 − 0, 001) ≈ 0, 006 Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 135 / 464 4. Wahrscheinlichkeitsrechnung 4.7. Der Satz von Bayes Der Satz von Bayes Ist A 1 ∪ ... A 2 =Ω Ω P (Ai ) > j ∈ { , . . . , k} P (Aj |B ) = P (PA(j B∩)B ) P (B |Aj ) · P (Aj ) = P (B ) P (B |Aj ) · P (Aj ) = Pk i P (B |Ai ) · P (Ai ) eine Zerlegung von Ereignis, so gilt für jedes 1 mit 0 und B ein =1 wobei im letzten Schritt der Satz von der totalen Wahrscheinlichkeit verwendet wurde. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 136 / 464 4. Wahrscheinlichkeitsrechnung 4.7. Der Satz von Bayes Satz von Bayes A , . . . , Ak B ⊂Ω 1 ein Ereignis mit Dann gilt für alle Ω P (A ) > 0, . . . , P (B ) > j ∈ { , . . . , k} P (Aj |B ) = PkP (BP|(ABj )|A· P) (· APj()A ) disjunkte Zerlegung von 0 1 P (Ak ) > 0 1 i =1 Jürgen Dippon (ISA) mit i Statistik für Wirtschaftswissenschaftler i 13. September 2010 137 / 464 4. Wahrscheinlichkeitsrechnung 4.7. Der Satz von Bayes Interpretation: A , . . . , Ak P (B |Ai ) Ai Werden die Ereignisse angesehen, so gibt Vorliegen von Ereignis 1 als mögliche Ursachen für das Ereignis B B die (bedingte) Wahrscheinlichkeit an, dass bei die Wirkung B eintritt. Aj Die Formel von Bayes erlaubt jetzt einen wahrscheinlichkeitstheoretischen Rückschluss von der Wirkung Jürgen Dippon (ISA) auf die mögliche Ursache Statistik für Wirtschaftswissenschaftler 13. September 2010 138 / 464 4. Wahrscheinlichkeitsrechnung 4.7. Der Satz von Bayes Beispiel: Fortsetzung Alarmanalyse Wie groÿ ist die Wahrscheinlichkeit, dass ein Einbruch im Gange ist, wenn ein Alarm ertönt? P (E |A) = P (A|E ) ·PP((AE|)E+) ·PP((AE|)Ē ) · P (Ē ) ≈ 0, 99 · 0, 001 0, 006 ≈ 0.165 Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 139 / 464 4.8. Unendliche Grundgesamtheit 4. Wahrscheinlichkeitsrechnung Unendliche Grundgesamtheit Beispiel: Anzahl der Würfe eines Würfels bis zur ersten 6. Ω = {1, 2, 3, ...}, also P ({ = P( = P( |Ω| = ∞ 2 Würfe bis zur ersten 6}) P ) · P( 1. Wurf keine 6) 1. Wurf keine 6 = 5 6 · · (2. Wurf eine 6|1. Wurf keine 6) 2. Wurf eine 6) 1 6 Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 140 / 464 4.8. Unendliche Grundgesamtheit 4. Wahrscheinlichkeitsrechnung Unendliche Grundgesamtheit Ai = { Bi = { Ci = { Allgemeiner: i-ter Wurf keine 6} i-ter Wurf eine 6} Spiel endet nach i Würfen} P (Ci ) = P (A ∩ ... ∩ Ai ∩ Bi ) = P (A ) · P (A ) · ... · P (Ai 1 −1 1 = 5 6 · 5 6 2 i − 1 = 5 6 5 1 6 6 · ... · · −1 ) PB · ( i) 1 6 Da hier i beliebig groÿ werden kann, sollte das 3. Axiom von Kolmogorov auch für abzählbar unendliche Vereinigungen von Ereignissen verallgemeinert werden. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 141 / 464 4. Wahrscheinlichkeitsrechnung 4.8. Unendliche Grundgesamtheit Axiome von Kolmogorov K K K P (A) ≥ P (Ω) = P (A ∪ A A⊂Ω A⊂Ω P (Ai ) Axiome von Kolmogorov für unendliche Ergebnisräume: ( 1) ( 2) ( f3) 0 für alle Ereignisse 1 Für paarweise disjunkte Ereignisse 1 2 ∪ ...) = P∞ i =1 gilt: Alle bislang hergeleiteten Rechenregeln gelten auch für unendliche Ergebnisräume. Später werden wir sehen, dass sich die Wahrscheinlichkeit eines überabzählbaren Ereignisses nicht als Summe der Wahrscheinlichkeiten der einzelnen Ergebnisse darstellen lässt. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 142 / 464 5. Diskrete Zufallsvariablen 4 Wahrscheinlichkeitsrechnung 5 Diskrete Zufallsvariablen Zufallsvariablen Verteilungen und Parameter von diskreten Zufallsvariablen Spezielle diskrete Verteilungsmodelle Die Binomialverteilung Die hypergeometrische Verteilung Die Poisson-Verteilung 6 Stetige Zufallsvariablen 7 Grenzwertsätze 8 Mehrdimensionale Zufallsvariablen Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 143 / 464 5. Diskrete Zufallsvariablen Diskrete Zufallsvariablen In den Kapiteln 57 werden grundlegende Begrie und Eigenschaften von univariaten (d.h. eindimensionalen) Zufallsvariablen eingeführt. Insbesondere wird zwischen diskreten und stetigen Zufallsvariablen unterschieden. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 144 / 464 5.1. Zufallsvariablen 5. Diskrete Zufallsvariablen Zufallsvariablen Beispiel: 2-maliges Würfeln Ω = {(1, 1), ..., (6, 6)}, |Ω| = 36 Summe der Augenzahlen werde beschrieben durch die Variable: X : Ω → { ,..., } ω 7→ X (ω) = i + j |{z} 2 X 12 ( i ,j ) ist Beispiel einer Zufallsvariablen, die jedem Ergebnis ω∈Ω eine reelle Zahl zuordnet. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 145 / 464 5. Diskrete Zufallsvariablen 5.1. Zufallsvariablen Zufallsvariablen P (A) Frage: Wie groÿ ist die Wahrscheinlichkeit, dass die Augensumme Gesucht ist also A = {X ≤ } = {( , ), ( , ), ( , P (A) = P| ({X{z= })} + P| ({X{z= 4 1 1 1 2 ist? 2 1), ..., (1, 3), (2, 2), (3, 1)} 2 1 36 Jürgen Dippon (ISA) ≤4 mit: 2 36 3}) + } P| ({X{z= Statistik für Wirtschaftswissenschaftler 3 36 4}) } = 1 6 13. September 2010 146 / 464 5. Diskrete Zufallsvariablen 5.1. Zufallsvariablen Zufallsvariablen Eine Variable oder ein Merkmal X, dessen Werte oder Ausprägungen die Ergebnisse eines Zufallsvorgangs sind, heiÿt Die Zahl heiÿt x ∈R Zufallsvariable X. , die X bei Durchführung des Zufallsvorgangs annimmt, Realisierung oder Wert von X. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 147 / 464 5. Diskrete Zufallsvariablen 5.1. Zufallsvariablen Zufallsvariablen Von Interesse sind oft Ereignisse der Form: X = x } = {ω ∈ Ω|X (ω) = x } {X 6= x } = {ω ∈ Ω|X (ω) 6= x } {X ≤ x } = {ω ∈ Ω|X (ω) ≤ x } B ⊂R {X ∈ B } = {ω ∈ Ω|X (ω) ∈ B } P (X ∈ B ) { oder allgemein für einen Bereich Die Menge aller Wahrscheinlichkeiten : Wahrscheinlichkeitsverteilung von X. Jürgen Dippon (ISA) für Bereiche B nennt man Statistik für Wirtschaftswissenschaftler 13. September 2010 148 / 464 5.2. Verteilungen diskreter Zufallsvariablen 5. Diskrete Zufallsvariablen Verteilungen und Parameter von diskreten Zufallsvariablen unendlich viele Werte diskret, falls sie nur endlich oder abzählbar x , x , ... Eine Zufallsvariable X heiÿt 1 2 annehmen kann. Die Wahrscheinlichkeitsverteilung von X ist durch die Wahrscheinlichkeiten: P (X = xi ) = pi = f (xi ), gegeben. Die Wertemenge von X wird auch als i= 1, 2, .. Träger von X bezeichnet: x x , . . .} T = { 1, 2 Ist B eine Teilmenge des Trägers von X, so folgt mit Axiom P (X ∈ B ) = Jürgen Dippon (ISA) X i : xi ∈ B pi Statistik für Wirtschaftswissenschaftler K ( f3): 13. September 2010 149 / 464 5. Diskrete Zufallsvariablen 5.2. Verteilungen diskreter Zufallsvariablen Verteilungen und Parameter von diskreten Zufallsvariablen x p p x { 1 , . . . , k } ist die Wahrscheinlichkeitsverteilung 1 , ... k das wahrscheinlichkeitstheoretische Analogon zur relativen Häugkeitsverteilung 1 , ..., k . Bei einem endlichen Wertebereich Jürgen Dippon (ISA) f Statistik für Wirtschaftswissenschaftler f 13. September 2010 150 / 464 5. Diskrete Zufallsvariablen 5.2. Verteilungen diskreter Zufallsvariablen Bernoulli-Verteilung Besitzt der Wertebereich von X nur zwei Werte binäre oder dichothome Zufallsvariable. Beispiel: Sei X= x 1 und x 2 , so ist X eine 1, falls Kunde kreditwürdig 0, falls Kunde nicht kreditwürdig A={ P (A) = P (X = Kunde kreditwürdig}. Dann X ist eine 1) = p P (Ā) = P (X = X ∼ ( , p) und Bernoulli-Variable, kurz Bernoulli-Verteilung. Verteilung heiÿt Bin 1 0) =1− p . Die dazugehörige Grasche Darstellung durch ein Stab- oder Säulendiagramm oder ein Wahrscheinlichkeitsdiagramm. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 151 / 464 5. Diskrete Zufallsvariablen 5.2. Verteilungen diskreter Zufallsvariablen Verteilungsfunktion Verteilungsfunktion einer diskreten Zufallsvariable: F (x ) = P (X ≤ x ) = X i : xi ≤ x f (xi ) Diese Verteilungsfunktion besitzt viele Eigenschaften der empirischen Verteilungsfunktion: monoton wachsende Treppenfunktion F (x ) → F (x ) → F (x ) F (x ) 0 für 1 für x → −∞ x →∞ macht Sprünge der Höhe f (xi ) = pi xi an rechtsstetig an den Sprungstellen (Die empirische Verteilungsfunktion macht Sprünge der Höhe Vielfache davon.) Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 1 n oder 13. September 2010 152 / 464 5. Diskrete Zufallsvariablen 5.2. Verteilungen diskreter Zufallsvariablen Abbildung: Zähldichte und Verteilungsfunktion Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 153 / 464 5. Diskrete Zufallsvariablen 5.2. Verteilungen diskreter Zufallsvariablen Gleichverteilung x x X∼ Eine diskrete Zufallsvariable X heiÿt T = { 1 , ..., n } kurz ∀ i ∈{1,...,k } Jürgen Dippon (ISA) gleichverteilt auf dem Träger Unif (T ), falls gilt: P (X = xi ) = k Statistik für Wirtschaftswissenschaftler 1 13. September 2010 154 / 464 5. Diskrete Zufallsvariablen 5.2. Verteilungen diskreter Zufallsvariablen Geometrische Verteilung X∼ p) Eine diskrete Zufallsvariable X heiÿt Geo( , falls gilt: P (X = i ) = ( − p)i p ∀ i ∈N0 p) Eine Geo( geometrisch(p)-verteilt, kurz −1 1 -verteilte Zufallvariable X zählt die Anzahl der Versuche in p∈( , einer Folge von unabhängigen Zufallsexperimenten mit jeweiliger Erfolgswahrscheinlichkeit A=( 0 1) bis zum ersten Erfolg: 0, 0, ..., 0 | {z } ) , |{z} 1 i −1 Misserfolge 1. Erfolg ( ) = (1 − ) · (1 − ) · ... · (1 − ) · PA Jürgen Dippon (ISA) p p p p = ( − p)i p Statistik für Wirtschaftswissenschaftler 1 −1 13. September 2010 155 / 464 5. Diskrete Zufallsvariablen 5.2. Verteilungen diskreter Zufallsvariablen Unabhängigkeit y y , ...} TY = { 1 , y ∈ TY und 2 heiÿen unabhängig, wenn für x x TX = { 1 , 2 , ...} beliebige ∈ TX und Zwei diskrete Zufallsvariablen X und Y mit den Trägern gilt: x P (X = x , Y = y ) = P (X = x ) · P (Y = y ) X , ..., Xn unabhängig x , ..., xn P (X = x , ..., Xn = xn) = P (X = x ) · ... · P (Xn = xn) Allgemeiner heiÿen n diskrete Zufallsvariablen wenn für beliebige Werte 1 Jürgen Dippon (ISA) 1 1 1 , aus den jeweiligen Trägern gilt: 1 1 Statistik für Wirtschaftswissenschaftler 13. September 2010 156 / 464 5. Diskrete Zufallsvariablen 5.2. Verteilungen diskreter Zufallsvariablen Unabhängigkeit X ∈ A} {Y ∈ B } P (X ∈ A, Y ∈ B ) = P (X ∈ A) · P (Y ∈ B ) f) (K Sind zwei diskrete Zufallsvariablen X und Y unabhängig, folgt die Unabhängigkeit der Ereignisse Nachweis mit Axiom { und , d.h. 3 . Beispiel:Unabhängigkeit beim Werfen zweier Würfel X Augenzahl im 1. Wurf, Y Augenzahl im 2. Wurf P (X ={zi , Y = j}) = P| (X{z= i}) · P| (Y{z= j}) | Jürgen Dippon (ISA) 1 36 1 6 Statistik für Wirtschaftswissenschaftler 1 6 13. September 2010 157 / 464 5. Diskrete Zufallsvariablen 5.2. Verteilungen diskreter Zufallsvariablen Lageparamter einer diskreten Verteilung Analog zum arithmetischen Mittel einer Stichprobe denieren wir: 1 EX Erwartungswert ( ) einer diskreten Zufallsvariable mit den Werten x , x , ... Der 2 f (x ) E (X ) = X xi pi i X = xi f (xi ) und der Wahrscheinlichkeitsverteilung Wahrscheinlichkeitsfunktion p , p , ... 1 2 bzw. der ist deniert durch: ≥1 i ≥1 Der Erwartungswert einer Zufallsvariable X ist damit das mit der Wahrscheinlichkeit des Auftretens gewichtete Mittel der Werte. fi xi Beim arithmetischen Mittel relative Häugkeit Jürgen Dippon (ISA) von x̄ einer Stichprobe wird statt in der Stichprobe verwendet. Statistik für Wirtschaftswissenschaftler pi bzw. f (xi ) 13. September 2010 die 158 / 464 5.2. Verteilungen diskreter Zufallsvariablen 5. Diskrete Zufallsvariablen Beispiel Beispiel: Erwartungswert beim Würfel Die Variable X gebe die Augenzahlen an E (X ) = xi pi = i · X 6 X i =1 Jürgen Dippon (ISA) 1 6 1 21 6 6 = (1 + ... + 6) = Statistik für Wirtschaftswissenschaftler = 3, 5 13. September 2010 159 / 464 5.2. Verteilungen diskreter Zufallsvariablen 5. Diskrete Zufallsvariablen Beispiel Beispiel: Mittlere Augenzahl der Versuche bis zum 1. Erfolg bei p∈( , ) X ∼ (p) unabhängigen Bernoulli-Versuchen mit jeweiliger Erfolgswahrscheinlichkeit 0 1 Geo , d.h. P (X = i ) = ( − p)i p, i ∈ { , −1 1 1 2, ...} E (X ) = X i ( − p)i p = p X i ( − p)i ∞ ∞ −1 1 i =0 p ∞ X 1 p i =0 −1 pp p p pp p p ∞ d d X (1 − )i = − (1 − )i d d i =0 i =0 d 1 d 1 1 =− =− = · 2 d 1 − (1 − ) d =− = Jürgen Dippon (ISA) 1 pp p> p p 1 Statistik für Wirtschaftswissenschaftler 13. September 2010 160 / 464 5.2. Verteilungen diskreter Zufallsvariablen 5. Diskrete Zufallsvariablen Erwartungswert Ist g (x ) eine reelle Funktion, dann gilt für die Zufallsvariable Y = g (X ) : E (Y ) = E (g (X )) = X g (xi )pi = X g (xi )f (xi ) i ≥1 gx x Beispiel: ( ) = i ≥1 2 E (X ) = X xi pi = x p 2 2 i ≥1 2 1 1 + ... g x ax + b E (aX + b) = X(axi + b)pi = a X xi pi +b X pi = aE (x ) + b Beispiel: ( ) = i ≥1 i ≥1 | {z } E (X ) i ≥1 | {z } 1 Erwartungswertbildung ist also linear. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 161 / 464 5. Diskrete Zufallsvariablen 5.2. Verteilungen diskreter Zufallsvariablen Beispiel fx Beispiel: Ist die Wahrscheinlichkeitsfunktion ( ) symmetrisch um c, so gilt: E (X ) = X E (X − c ) + Ec = (xi − c )f (xi ) +c i ≥1 | = Jürgen Dippon (ISA) c {z 0 } Statistik für Wirtschaftswissenschaftler 13. September 2010 162 / 464 5. Diskrete Zufallsvariablen 5.2. Verteilungen diskreter Zufallsvariablen Weitere Eigenschaften Die folgende Tatsache ist aufwändig zu zeigen: Für zwei diskrete Zufallsvariablen X und Y gilt: E (X + Y ) = E (X ) + E (Y ) a , ..., an E (a X + ... + anXn) = a E (X ) + ... + anE (Xn) und allgemeiner für beliebige Konstanten 1 Jürgen Dippon (ISA) 1 1 : 1 1 Statistik für Wirtschaftswissenschaftler 13. September 2010 163 / 464 5. Diskrete Zufallsvariablen 5.2. Verteilungen diskreter Zufallsvariablen Produktregel Für zwei unabhängige diskrete Zufallsvariablen gilt die Produktregel: E (X · Y ) = E (X ) · E (Y ) Beispiel: Beim 2-maligen Würfeln gilt für die Augenzahlen X (erster Wurf ) und Y (zweiter Wurf ): E (X · Y ) = E (X ) · E (Y ) = Jürgen Dippon (ISA) 7 2 · 7 2 Statistik für Wirtschaftswissenschaftler = 49 4 13. September 2010 164 / 464 5. Diskrete Zufallsvariablen 5.2. Verteilungen diskreter Zufallsvariablen Weitere Lageparameter Der x Modus mod macht. ist derjenige x -Wert, der p ∈ ( , ) xp P (X ≤ xp ) = F (xp ) ≥ p xp Für jeden Wert 0 1 Mit dieser Denition ist ist ein f (x ) = P (X = x ) maximal p-Quantil, falls und P (X ≥ xp ) ≥ 1 − p u.U. nicht eindeutig deniert. Sind mehrere Werte möglich, so kann man z.B. den mittleren Wert wählen. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 165 / 464 5. Diskrete Zufallsvariablen 5.2. Verteilungen diskreter Zufallsvariablen Streungsparameter für eine diskrete Zufallsvariable X Die Varianz einer diskreten Zufallsvariable ist: σ2 = wobei Die EX Var (X ) = X(xi − µ) f (xi ) = E ((X − µ) ) 2 2 i ≥1 µ = ( ). Standardabweichung ist: p σ=+ Jürgen Dippon (ISA) Var (X ) Statistik für Wirtschaftswissenschaftler 13. September 2010 166 / 464 5. Diskrete Zufallsvariablen 5.2. Verteilungen diskreter Zufallsvariablen Streuungsparameter für eine diskrete Zufallsvariable X Wie bei empirischen Varianzen gilt die Verschiebungsregel: Var (X ) = E (X ) − (E (X )) = E (X ) − µ Y = aX + b Var (Y ) = Var (aX + b) = a Var (X ) σY = |a|σX 2 2 2 2 und für 2 Jürgen Dippon (ISA) und Statistik für Wirtschaftswissenschaftler 13. September 2010 167 / 464 5.2. Verteilungen diskreter Zufallsvariablen 5. Diskrete Zufallsvariablen Beispiel Augenzahl X beim Würfeln Var (X ) = E (X ) − (E (X )) 2 2 =1 · = 1 6 1 6 2 2 +2 · 1 6 2 + ... + 6 · · (12 + 22 + ... + 62 ) − | {z } 1 6 2 − 7 2 2 7 2 91 = ... = Jürgen Dippon (ISA) 70 24 = 2, 92 Statistik für Wirtschaftswissenschaftler 13. September 2010 168 / 464 5. Diskrete Zufallsvariablen 5.3. Spezielle diskrete Verteilungsmodelle Die Binomialverteilung Folge von n p unabhängigen Bernoulli-Versuchen Erolgswahrscheinlichkeiten Xi = , wobei X , . . . , Xn 1 p 0 mit Wahrscheinlichkeit 1 1 mit Wahrscheinlichkeit Gesucht ist nun die Wahrscheinlichkeit für genau k − mit jeweiligen p Erfolge: 0...0 1...1 |{z} |{z} n −k k Wahrscheinlichkeit für genau dieses Ergebnis: Anzahl verschiedener Permutationen: p p (1 − )n−k · k n k Alle Permutatonen sind gleich wahrscheinlich. Also: P ({ n pk ( − p)n k k Erfolge bei n Versuchen}) Jürgen Dippon (ISA) = Statistik für Wirtschaftswissenschaftler 1 −k 13. September 2010 169 / 464 5. Diskrete Zufallsvariablen 5.3. Spezielle diskrete Verteilungsmodelle Die Binomialverteilung X = X + ... + Xn E (X ) = E (X 1 sei die Anzahl der Erfolge bei n Versuchen. Dann ist: 1 = X E X ) + ... + E (Xn) = n |E ({zX }) + ... + n ) = ( 1 1 0·(1− np p)+1·p X , ..., Xn Var (X ) = Var (X + ... + Xn) = Var (X ) + ... + Var (Xn) = nVar (X ) = n(E (X ) − (E (X )) ) = n( · ( − p ) + · p − p ) = np ( − p ) Wegen Unabhängigkeit der folgt: 1 1 1 2 1 0 2 Jürgen Dippon (ISA) 1 1 1 2 1 2 2 1 Statistik für Wirtschaftswissenschaftler 13. September 2010 170 / 464 5. Diskrete Zufallsvariablen 5.3. Spezielle diskrete Verteilungsmodelle Die Binomialverteilung Additionseigenschaft der Binomialverteilung Sind X∼ n, p ) Bin( und Y ∼ (m, p) X + Y ∼ (n + m, p) Bin unabhängig, so gilt: Bin Symmetrieeigenschaft Sei X∼ n, p ) Bin( und Y =n−X Y ∼ (n, − p) , dann gilt Bin Jürgen Dippon (ISA) 1 Statistik für Wirtschaftswissenschaftler 13. September 2010 171 / 464 5.3. Spezielle diskrete Verteilungsmodelle 5. Diskrete Zufallsvariablen Beispiel Beispiel: Qualitätskontrolle p= Bei der Produktion von Speicherchips ist ein Bauteil mit Wahrscheinlichkeit von 0.9 fehlerfrei. Aus der laufenden Produktion werden n= 20 Stücke entnommen. Sei die Anzahl der fehlerfreien Stücke, also: X∼ Bin(20, 0.9) und Y =n−X ∼ X Bin(20, 0.1) Wie groÿ ist die Wahrscheinlichkeit, dass höchstens 18 der 20 Bauteile fehlerfrei sind? Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 172 / 464 5.3. Spezielle diskrete Verteilungsmodelle 5. Diskrete Zufallsvariablen Beispiel P (X ≤ 18) PX X = 1 − ( = 19 oder = 20) 20 20 19 1 20 =1− 0.9 · 0.1 − 0.9 · 0.10 19 20 = 1 − 20 · 0.9 19 · 0.1 − 0.9 20 ≈ 0.61 P (X = ) = · . · . ≈ E (X ) = n · p = · . = Var (X ) = n · p( − p) = · . 18 20 0 9 18 20 1 18 0 1 0 9 2 0.285 18 20 0 9 · 0.1 = 1.8, also σ ≈ 1.34 Im Zusammenhang mit dem zentralen Grenzwertsatz werden wir sehen, dass X ungefähr normalverteilt ist mit Erwartungswert 18 und Varianz 1.8 Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 173 / 464 5. Diskrete Zufallsvariablen 5.3. Spezielle diskrete Verteilungsmodelle Die hypergeometrische Verteilung In einer Kiste benden sich N Bauteile, M davon sind defekt. 00 . . . 0 11 . . . 1 Es werden n | {z } | {z } M N −M | {z } N Bauteile ohne Zurücklegen herausgezogen. Wie groÿ ist die Wahrscheinlichkeit, genau Stichprobe X =k defekte Teile zu ziehen? 0...0 1...1 | {z } | {z } k n −k | {z } n P (X = k ) = Jürgen Dippon (ISA) Anzahl der günstigen Ergebnisse Anzahl der möglichen Ergebnisse M · N −M = k N n−k M Statistik für Wirtschaftswissenschaftler 13. September 2010 174 / 464 5. Diskrete Zufallsvariablen X X 5.3. Spezielle diskrete Verteilungsmodelle n, (M , ( kann nicht gröÿer werden als Jürgen Dippon (ISA) falls n≤M n>M 0, n − (N − M ), X T = {( , n − (N − M )) , min(n, M )} kann nicht kleiner werden als Also gilt für den Träger von falls : 0 Statistik für Wirtschaftswissenschaftler 13. September 2010 175 / 464 5. Diskrete Zufallsvariablen n, M , N hypergeometrisch verteilt mit Parametern X ∼ Hyp(n, M , N ) Eine Zufallsvariable heiÿt , kurz 5.3. Spezielle diskrete Verteilungsmodelle , wenn sie die Wahrscheinlichkeitsfunktion M N −M ( k )( n−k ) (Nn ) ( )= fk Es gilt 0 , falls x ∈T , sonst E (X ) = n MN , Var (X ) = n MN − MN NN −− n n X n N ≤ . Y ∼ N , MN E (Y ) = n MN = E (X ) M M Var (Y ) = n N − N > Var (X ) 1 Ist N M N, N ) groÿ im Vergleich yu Bin( (Faustregel 1 0 05), so kann als nahezu -verteilt angesehen werden. Zum Vergleich: Sei Bin . Dann 1 Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 176 / 464 5. Diskrete Zufallsvariablen 5.3. Spezielle diskrete Verteilungsmodelle Abbildung: Zähldichte- und Verteilungsfunktion der Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler Hyp(6, 6, 10)-Verteilung 13. September 2010 177 / 464 5. Diskrete Zufallsvariablen 5.3. Spezielle diskrete Verteilungsmodelle Die Poisson-Verteilung n n Binomial- und hypergeometrisch verteilte Zufallsvariablen zählen, wie oft bei -maligem Ziehen ein bestimmtes Ereignis eintritt: T = {0 , 1 , . . . , } Die geometrische Verteilung zählt, wie lange man warten muss bis ein bestimmtes Ereignis zum ersten Mal eintrit: Eine T =N Poisson-verteilte Zufallsvariable zählt, wie oft ein bestimmtes Ereignis innerhalb eines (Zeit-)Intervalles eingetreten ist: T = N0 Die Poisson-Verteilung lässt sich herleiten 1 als Grenzfall der Binomial-Verteilung oder 2 aus den Poisson-Annahmen. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 178 / 464 5.3. Spezielle diskrete Verteilungsmodelle 5. Diskrete Zufallsvariablen zu 1): Die Wahrscheinlichkeit, in einem Jahr mit dem Auto einen Totalschaden zu erleiden, sei Eine Versicherung habe n= p= 1 . 1000 500000 Versicherungsverträge. Wie groÿ ist die Wahrscheinlichkeit, dass der Versicherung in einem Jahr Totalschäden gemeldet werden? X= k Anzahl der Totalschäden P (X = k ) = kn pk ( − p)n k n · . . . · (n − k + pk = k! | {z } − 1 1 k ≈ nk ! Jürgen Dippon (ISA) p p (1 − )n (1 − )−k | {z –} | {z } » 1 (1−p ) p Statistik für Wirtschaftswissenschaftler np ≈1 13. September 2010 179 / 464 5. Diskrete Zufallsvariablen Da 1 + n1 n → e n→∞ für 5.3. Spezielle diskrete Verteilungsmodelle folgt für kleines k p und groÿes n und λ= np P (X = k ) ≈ λk ! e , k ∈ { , , . . . , n} X ( k k ∈N f (k ) = P (X = k ) = k e Eine Zufallsvariable −λ 0 1 mit der Wahrscheinlichkeitsfunktion λ λ ! 0 für sonst heiÿt Poisson-verteilt mit Parameter (oder Rate) Es gilt Jürgen Dippon (ISA) 0 λ > 0, E (X ) = λ, Var (X ) = λ Statistik für Wirtschaftswissenschaftler kurz X∼ 13. September 2010 Pois(λ) 180 / 464 5.3. Spezielle diskrete Verteilungsmodelle 5. Diskrete Zufallsvariablen Finden im Zeitintervall [0, 1] zufällig Ereignisse statt, so ist die Anzahl X der in [0, 1] beobachteten Ereignisse Pois(λ)-verteilt, falls die folgenden Poisson-Annahmen gelten: Zwei Erreignisse können nicht gleichzeitig auftreten P( P( N Anzahl der Ereignisse in Anzahl der Ereignisse in N tt t [t , t + ∆t ]) I ,I ⊂ [ , [ , + ∆ ]) ≈ λ∆ Für zwei disjunkte Intervalle 1 1 und Ii 2 t für ∆ t kein nur abhängig von 0 1] gilt: 2 sind zwei unabhängige Zufallsvariablen, wobei der Ereignisse in Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler ∆ t Ni = 13. September 2010 Anzahl 181 / 464 5.3. Spezielle diskrete Verteilungsmodelle 5. Diskrete Zufallsvariablen X∼ Ähnlich wie bei der Binomial-Verteilung gilt eine Poisson-verteilte Zufallsvariablen sind X +Y ∼ unabhängig, so gilt X Additionseigenschaft für Pois(λ) und Pois(λ Y∼ Pois(µ) + µ) Damit lässt sich dann zeigen: Z Ist die Anzahl von Ereignissen in [0, 1] Pois(λ)-verteilt, so ist die Anzahl von Ereignissen in [0, t] Pois(λ t) -verteilt. Beispiele für Poisson-verteilten Zufallsvariablen: Anzahl radioaktiver zerfälle in einem gegebenen Zeitintervall Anzahl der Blitzeinschläge in einem Jahr Anzahl von Morden in einer Groÿstandt Anzahl von Kreditausfällen in einem Monat bei einer Bank Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 182 / 464 5. Diskrete Zufallsvariablen 5.3. Spezielle diskrete Verteilungsmodelle Abbildung: Zähldichte- und Verteilungsfunktion der Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler Pois (3)-Verteilung 13. September 2010 183 / 464 6. Stetige Zufallsvariablen 4 Wahrscheinlichkeitsrechnung 5 Diskrete Zufallsvariablen 6 Stetige Zufallsvariablen Spezielle stetige Verteilungsmodelle Gleichverteilung Exponentialverteilung Lageparameter, Quantile und Varianz von stetigen Zufallsvariablen Erwartungswert Modus, Quantil und Median Varianz und Standardabweichung Normalverteilung 7 Grenzwertsätze 8 Mehrdimensionale Zufallsvariablen Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 184 / 464 6. Stetige Zufallsvariablen Stetige Zufallsvariablen Zur Erinnerung: Eine diskrete Zufallsvariable X Für deren Verteilungsfunktion F T = { 1, 2 an. gilt F (x ) = P (X ≤ x ) = Jürgen Dippon (ISA) x x ,...} nimmt Werte in einer endlichen oder abzählbaren, also diskreten, Menge X i : xi ≤ x f (xi ) Statistik für Wirtschaftswissenschaftler 13. September 2010 (1) 185 / 464 6. Stetige Zufallsvariablen Eine stetige Zufallsvariable kontinuierlichen Menge T, X z.B. nimmt Werte in einer überabzählbaren T = R, T = [0, 1] Für deren Verteilungsfunktion kann die Gleichung oder (1) T = (0, ∞) an. jetzt NICHT mehr gelten. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 186 / 464 6. Stetige Zufallsvariablen Stattdessen und genauer: X stetig f (t ) ≥ x ∈R Z x F (x ) = P (X ≤ x ) = f (t ) dt Eine Zufallsvariable dass für jedes f (x ) heiÿt , wenn es eine Funktion 0 gibt, so −∞ heiÿt Wahrscheinlichkeitsdichte Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 187 / 464 6. Stetige Zufallsvariablen Für stetige Zufallsvariablen gilt: P (a ≤ X ≤ b) = P (a < X < b) = P (a ≤ X < b) Z b f (t ) dt = F (b) − F (a) = P (a < X ≤ b) = a P (X = x ) = x ∈R P (−∞ < X < ∞) = Z f (t ) dt = und Da 0 für jedes 1 gilt auch ∞ 1 −∞ Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 188 / 464 6. Stetige Zufallsvariablen Weitere Eigenschaften der Verteilungsfunktion einer stetigen Zufallsvariable: 1 2 3 F (x ) limx F (x ) = limx F (x ) = x f (x ) F (x ) = dFdx(x ) = f (x ) ist stetig und monoton wachsend mit Werten in [0, 1] 0, →−∞ Für Werte →∞ , an denen 1 stetig ist, gilt 0 Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 189 / 464 6. Stetige Zufallsvariablen x ∈R X Y y ∈R P (X ≤ x , Y ≤ y ) = P (X ≤ x ) · P (Y ≤ y ) = FX (x ) · FY (y ) X , . . . , Xn x , . . . , xn ∈ R P (X ≤ x , . . . , Xn ≤ xn) = P (X ≤ x ) · · · · · P (Xn ≤ xn) Zwei stetige Zufallsvariablen und und sind unabhängig, wenn für alle Allgemeiner: Die stetigen Zufallsvariablen für alle sind unabhängig, falls 1 1 1 Jürgen Dippon (ISA) 1 1 1 Statistik für Wirtschaftswissenschaftler 13. September 2010 190 / 464 6. Stetige Zufallsvariablen 6.1. Spezielle stetige Verteilungsmodelle Gleichverteilung X ∼ Unif ([a, b]) f (x ) = b Eine stetige Zufallsvariable heiÿt kurz ab gleichverteilt auf dem Intervall [ , ], , wenn sie eine Dichte 1 −a 0 für a≤x ≤b sonst besitzt. Dazugehörige Verteilungsfunktion x <a a≤x ≤b x >b x =b F f (x ) = xb An den Knickstellen Jürgen Dippon (ISA) x =a und 0 −a −a 1 ist nicht dierenzierbar. Statistik für Wirtschaftswissenschaftler 13. September 2010 191 / 464 6. Stetige Zufallsvariablen 6.1. Spezielle stetige Verteilungsmodelle Abbildung: Dichte- und Verteilungsfunktion der Gleichverteilung Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 192 / 464 6. Stetige Zufallsvariablen 6.1. Spezielle stetige Verteilungsmodelle Exponentialverteilung Die geometrische Verteilung dient zur Beschreibung der Wartezeit bis zu einem bestimmten Ereignis. Ein stetiges Analogon hierzu ist die Exponentialverteilung: Eine stetige Zufallsvariable X die Dichte f (x ) = X ∼ Exp(λ) mit nichtnegativen Werten heiÿt exponentialverteilt mit dem Parameter λ > 0, kurz λ e −λx für 0 für x≥ x< , wenn sie 0 0 besitzt. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 193 / 464 6. Stetige Zufallsvariablen 6.1. Spezielle stetige Verteilungsmodelle Exponentialverteilung Dazugehörige Verteilungsfunktion F (x ) = 1 − e 0 −λx für für x≥ x< 0 0 t Pois (λt ) Man kann zeigen, dass die Anzahl von Ereignissen in einem Zeitintervall der Länge -verteilt ist, wenn die Zeitdauern zwischen aufeinander folgenden Ereignissen unabhängig und exponentialverteilt mit Parameter λ sind. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 194 / 464 6. Stetige Zufallsvariablen 6.1. Spezielle stetige Verteilungsmodelle Abbildung: Dichte- und Verteilungsfunktion der Exponentialverteilung Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 195 / 464 6. Stetige Zufallsvariablen 6.2. Lageparameter, Quantile und Varianz Lageparameter, Quantile und Varianz von stetigen Zufallsvariablen Approximation der Dichte f x einer stetigen Zufallsvariablen Histogramm mit Intervallbreite ∆ E (Xd ) = X xi pi = X xi f (xi )∆x Z → xf (x ) dx Jürgen Dippon (ISA) X für Statistik für Wirtschaftswissenschaftler Xd durch ein zu einer diskreten Zufallsvariable : x ∆ →0 13. September 2010 196 / 464 6. Stetige Zufallsvariablen 6.2. Lageparameter, Quantile und Varianz Erwartungswert Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 197 / 464 6.2. Lageparameter, Quantile und Varianz 6. Stetige Zufallsvariablen Erwartungswert Der Erwartungswert E (X ) einer stetigen Zufallsvariable ist deshalb deniert als E (X ) = Jürgen Dippon (ISA) Z ∞ −∞ X mit Dichte f (x ) xf (x ) dx Statistik für Wirtschaftswissenschaftler 13. September 2010 198 / 464 6. Stetige Zufallsvariablen 6.2. Lageparameter, Quantile und Varianz Eigenschaften von Erwartungswerten 1 Ist g (x ) eine reelle Funktion, dann gilt für Y = g (X ) g (x )f (x ) dx E (Y ) = E (g (X )) = Y = aX + b E (Y ) = E (aX + b) = aE (X ) + b f c f (c − x ) = f (c + x ) E (X ) = c X Y E (X + Y ) = E (X ) + E (Y ) a , . . . , an E (a X + . . . + anXn) = a E (X ) + . . . + anE (Xn) Z ∞ −∞ 2 Für 3 Ist 4 Additivität: Für zwei Zufallsvariablen 5 Linearität: Für beliebige Konstanten gilt symmetrisch um 1 Jürgen Dippon (ISA) 1 , d.h. , so gilt und gilt 1 1 gilt 1 Statistik für Wirtschaftswissenschaftler 13. September 2010 199 / 464 6. Stetige Zufallsvariablen Beispiele 1 X gleichverteilt auf ab [ , ]. E (X ) = 6.2. Lageparameter, Quantile und Varianz Dann Z b xf (x ) dx = a x b − a dx b a (b − a)(b + a) − = = b−a (b − a) a+b = Z ∞ −∞ 2 1 2 2 X ∼ Exp(λ) 2 2 2 2 E (X ) = Z ∞ −∞ xf (x ) dx = = ··· = Jürgen Dippon (ISA) 1 Z ∞ 0 xe x dx −λ 1 λ Statistik für Wirtschaftswissenschaftler 13. September 2010 200 / 464 6. Stetige Zufallsvariablen 6.2. Lageparameter, Quantile und Varianz Modus, Quantil und Median Ist X dem f (x ) <p< eine stetige Zufallsvariable mit Dichte ein (lokales) Maximum annimmt, Für 0 p-Quantil X . Der X xmod , so heiÿt der Wert, an Modus von xp F (xp ) = p Median xmed F (xmed ) = . p 1 heiÿt der Wert von f (x ) , kurz . mit ist das 50%-Quantil, also 0 5 Ist F streng monoton, so sind das Jürgen Dippon (ISA) -Quantil und der Median eindeutig. Statistik für Wirtschaftswissenschaftler 13. September 2010 201 / 464 6.2. Lageparameter, Quantile und Varianz 6. Stetige Zufallsvariablen Varianz und Standardabweichung Die Varianz einer stetigen Zufallsvariable ist deniert als die mittlere oder EX (x − µ) f (x ) dx erwartete quadratische Abweichung vom Erwartungswert 2 σ = Var (X ) = E ((X − µ) ) = 2 Z ∞ −∞ µ = ( ): 2 Die Standardabweichung ist Var (X ) p σ=+ Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 202 / 464 6.2. Lageparameter, Quantile und Varianz 6. Stetige Zufallsvariablen Wie im diskreten Fall gelten 1 2 3 Var (X ) = E (X ) − (E (X )) = E ((X − c ) ) − (µ − c ) Var (aX + b) = a Var (X ) X Y Var (X + Y ) = Var (X ) + Var (Y ) 2 2 2 2 2 für unabhängige Zufallsvariablen X [a, b] Var (X ) = E| ({zX }) Beispiel: Sei auf und gleichverteilt 2 EX − ( ( ))2 = · · · = | {z } Rb 2 2 1 dx x ( a+2 b ) a b−a Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler b a ( − )2 12 13. September 2010 203 / 464 6.3. Normalverteilung 6. Stetige Zufallsvariablen Normalverteilung Eine Zufallsvariable X mit Dichte f (x ) = √ πσ 1 2 exp x ( − µ)2 − 2σ 2 , x ∈ R, normalverteilt mit den Parametern µ ∈ R und σ 2 > 0, kurz X ∼ N (µ, σ ) heiÿt 2 . Es gilt E (X ) = √ πσ 1 Z 2 ∞ −∞ xe x dx = · · · = µ ( −µ)2 2σ2 Var (X ) = E (X ) − (E (X )) 2 Jürgen Dippon (ISA) 2 = · · · = σ2 Statistik für Wirtschaftswissenschaftler 13. September 2010 204 / 464 6.3. Normalverteilung 6. Stetige Zufallsvariablen Die Verteilungsfunktion von X ∼ N (µ, σ ) 2 Z x ist gegeben durch F (X ) = P (X ≤ x ) = √ πσ e t dt Z x t x −µ X −µ =P e ≤ =√ dt σ σ πσ Z z t x − µ , Φ(z ) = √ e dt =Φ σ π 1 2 ( −µ)2 2σ2 −∞ −µ σ 1 2 wobei Also gilt −∞ 2 −2 1 2 −∞ X ∼ N (µ, σ ) ⇐⇒ X σ− µ ∼ N ( , 2 Jürgen Dippon (ISA) 2 −2 Statistik für Wirtschaftswissenschaftler 0 1) 13. September 2010 205 / 464 6. Stetige Zufallsvariablen 6.3. Normalverteilung Abbildung: Dichte- und Verteilungsfunktion der Normalverteilung Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 206 / 464 7. Grenzwertsätze 4 Wahrscheinlichkeitsrechnung 5 Diskrete Zufallsvariablen 6 Stetige Zufallsvariablen 7 Grenzwertsätze Gesetz der groÿen Zahlen Hauptsatz der Statistik Der zentrale Grenzwertsatz 8 Mehrdimensionale Zufallsvariablen Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 207 / 464 7. Grenzwertsätze Grenzwertsätze Fragen: 1 Unter welchen Voraussetzungen liegt die relative Häugkeit für das Eintreten eines Ereignisses nahe bei der Wahrscheinlichkeit für das Ereignis? 2 Unter welchen Voraussetzungen kann die Verteilung einer Summe von Zufallsvariablen durch eine einfachere Verteilung approximiert werden? Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 208 / 464 7.1. Gesetz der groÿen Zahlen 7. Grenzwertsätze Gesetz der groÿen Zahlen Sei X Also A A X= A X ∼ Bin( , p) p = P (A) = P (X = eine binäre Zufallsvariable und 1 ein Ereignis mit 1 falls eintritt 0 falls nicht eintritt mit Wir nehmen an, dass das Zufallsexperiment wiederholt werden kann: Xi = ,, Xi ∼ Bin( , p) Klar: 1 Jürgen Dippon (ISA) 1 falls 0 falls für alle A i A i 1). n -mal und in identischer Weise im -ten Versuch eintritt im -ten Versuch nicht eintritt i ∈ { , . . . , n} 1 Statistik für Wirtschaftswissenschaftler 13. September 2010 209 / 464 7. Grenzwertsätze 7.1. Gesetz der groÿen Zahlen Empirisches Gesetz der groÿen Zahlen Für groÿes n liegt die relative Häugkeit nahe bei der Wahrscheinlichkeit von A: fn(A) → P (A) Da fn(A) für für das Eintreten von n→∞ fn(A) = n Pni Xi = X̄n P (A) = E (X ) X̄i → E (X ) n → ∞ 1 =1 und kann A (1) (1) auch in die Form für (2) gebracht werden. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 210 / 464 7. Grenzwertsätze 7.1. Gesetz der groÿen Zahlen Fragen: 1 Wie ist die Konvergenz in 2 Gilt (2) (1) und (2) zu verstehen? auch für nicht-binäre Zufallsvariablen? Auf beide Fragen gibt das Gesetz der groÿen Zahlen eine Antwort. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 211 / 464 7.1. Gesetz der groÿen Zahlen 7. Grenzwertsätze Sei X σ2 = Seien Var (X ) X , . . . , Xn eine Zufallsvariable mit Erwartungswert . 1 unabhängige wie Dann gilt n X X µ= EX und Varianz verteilte Zufallsvariablen. n n E X̄n = E n Xi = n X EXi = n X µ = µ i i i ! n n n Var (X̄n) = Var n X Xi = n X Var (Xi ) = n X σ 1 =1 1 Für groÿe n X̄n ist Jürgen Dippon (ISA) ! 1 1 =1 =1 1 i =1 2 1 2 i =1 damit immer mehr um µ 2 = i =1 σ2 n herum konzentriert. Statistik für Wirtschaftswissenschaftler 13. September 2010 212 / 464 7. Grenzwertsätze 7.1. Gesetz der groÿen Zahlen Gesetz der groÿen Zahlen Für beliebig kleines In Worten: X̄n c> P (|X̄n − µ| ≤ c ) → 0 gilt 1 für n→∞ konvergiert nach Wahrscheinlichkeit gegen µ. Zum Beweis verwenden wir die Ungleichung von Tschebyschev Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 213 / 464 7.1. Gesetz der groÿen Zahlen 7. Grenzwertsätze Ungleichung von Tschebyschev Für jede Zufallsvariable X ∀ c >0 mit endlicher Varianz gilt P (|X − E (X )| > c ) ≤ Varc(X ) 2 Beweis: Setze Y= 0, falls 1, falls (3) X − E (X )| ≤ c X − E (X )| > c | | Damit P (|X − E (X )| > c ) = E (Y ) = E (Y ) |X − E (X )| ≤E = Var (X ) c c 2 2 2 Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 1 2 13. September 2010 214 / 464 7.1. Gesetz der groÿen Zahlen 7. Grenzwertsätze Beweis des Gesetzes der groÿen Zahlen P (|X̄n − µ| ≤ c ) = 1 − P| (|X̄n −{zµ| > c}) (3) 2 ≤ 12 Var (X̄n )= 12 σn →0 c c n → 1 ( → ∞) Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 215 / 464 7. Grenzwertsätze 7.1. Gesetz der groÿen Zahlen Satz von Bernoulli Spezialfall des starken Gesetzes der groÿen Zahlen: Die relative Häugkeit, mit der ein Ereignis P (A) A n bei unabhängigen Wiederholungen eines Zufallsvorgangs eintritt, konvergiert nach Wahrscheinlichkeit gegen Jürgen Dippon (ISA) . Statistik für Wirtschaftswissenschaftler 13. September 2010 216 / 464 7. Grenzwertsätze 7.1. Gesetz der groÿen Zahlen Konvergenz derr empirischen Verteilungsfunktion Fn(x ) X Anwendung des Satzes von Bernoulli auf die empirische Verteilungsfunktion : Sei Seien eine Zufallsvariable mit Verteilungsfunktion X , . . . , Xn 1 F (x ) = P (X ≤ x ) X unabhängige wie für F (x ) : x ∈R verteilte Zufallsvariablen. Dann gilt für die empirische Verteilungsfunktion Fn(x ) = relative Häugkeit, dass die Ereignisse { die Beziehung ∀ x ∈R X ≤ x }, . . . , {Xn ≤ x } 1 Fn(x ) → P (X ≤ x ) = F (x ) eintreten für n→∞ nach Wahrscheinlichkeit. Diese Eigenschaft gilt sogar gleichmäÿig in Jürgen Dippon (ISA) x ∈R ! Statistik für Wirtschaftswissenschaftler 13. September 2010 217 / 464 7. Grenzwertsätze 7.1. Gesetz der groÿen Zahlen Hauptsatz der Statistik (Satz von Glivenko-Cantelli) Sei X X F (x ) eine Zufallsvariable mit Verteilungsfunktion Fn(X ) |Fn (x ) − F (x )| ≤ c ) → zu unabhängigen und identisch wie gebildete empirische Verteilungsfunktion ∀ c >0 Jürgen Dippon (ISA) P (x sup ∈R X , . . . , Xn . Dann gilt für die verteilten Zufallsvariablen 1 Statistik für Wirtschaftswissenschaftler für 1 n→∞ 13. September 2010 218 / 464 7. Grenzwertsätze 7.2. Der zentrale Grenzwertsatz Der zentrale Grenzwertsatz Die Zufallsvariable X Bin( , p) X , . . . , Xn X Sn = X + · · · + Xn ∼ Bin(n, p) E (Sn) = np Var (Sn) = np( − p) Die Zufallsvariablen sei 1 1 -verteilt. seien unabhängig wie verteilt. Dann 1 1 Bin(n, p) N (np, np( − p)) Man stellt experimentell leicht fest, dass die Dichte einer -verteilten Zufallsvariablen durch die Dichte einer 1 -verteilten Zufallsvariablen approximiert werden kann. Der formale Beweis ist jedoch schwierig. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 219 / 464 7.2. Der zentrale Grenzwertsatz 7. Grenzwertsätze Approximation von Summen von Zufallsvariablen Standardisierung von Sn : − E (Sn ) Zn = Spn Var (Sn ) Dann gilt: E (Zn) = 0, Var (Zn) = Var (Sn) Var (Sn) = 1 1 Damit kann obige Beobachtung reformuliert werden: Die Dichte von N( , Zn kann für groÿe 0 1)-Verteilung, also Jürgen Dippon (ISA) f (x ) = n √1 2π gut durch die Dichte der e 2 − x2 , approximiert werden. Statistik für Wirtschaftswissenschaftler 13. September 2010 220 / 464 7. Grenzwertsätze 7.2. Der zentrale Grenzwertsatz Daraus folgt: Die Verteilungsfunktion Fn(z ) = P (ZnR≤ z ) Znx z Φ(z ) = e dx von durch die Verteilungsfunktion N( , −∞ √1 2π 2 − 2 kann für groÿe n gut einer 0 1)-verteilten Zufallsvariablen approximiert werden. Bin( , p) Diese Tatsache gilt nicht nur für Summen von unabhängigen 1 -verteilten Zufallsvariablen, sondern unter viel allgemeineren Voraussetzungen. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 221 / 464 7. Grenzwertsätze 7.2. Der zentrale Grenzwertsatz Zentraler Grenzwertsatz X , . . . , Xn 1 seien unabhängig identisch verteilte Zufallsvariablen mit E (Xi ) = µ und Var (Xi ) = σ Fn(z ) = P (Zn ≤ z ) 2 Dann konvergiert die Verteilungsfunktion standardisierten Summe Zn = X 1 für n→∞ X n der X n + ··· + n − µ 1 X i −µ √ =√ σ σ i =1 n an jeder Stelle Standardnormalverteilung z ∈R n gegen die Verteilungsfunktion z Φ( ) der Fn(z ) → Φ(z ) (n → ∞) Unter den Voraussetzungen dieses Satzes gilt deshalb: Sn = X 1 Jürgen Dippon (ISA) X + ··· + n ist approximativ N (nµ, nσ ) Statistik für Wirtschaftswissenschaftler 2 -verteilt 13. September 2010 222 / 464 7. Grenzwertsätze 7.2. Der zentrale Grenzwertsatz Grenzwertsatz von Moivre-Laplace Bin( , p) X , . . . , Xn Als Spezialfall des zentralen Grenzwertsatzes gilt damit für die Summe von unabhängigen 1 -verteilten Zufallsvariablen 1 der Grenzwertsatz von Moivre-Laplace ∀ z ∈R ≤z P pSnpn (− np − p) z ! → Φ( ) 1 für n→∞ oder Sn = n N (np, np( − p)) Anzahl der Erfolge in ist approximativ Jürgen Dippon (ISA) unabhänigen Bernoulli-Versuchen 1 -verteilt Statistik für Wirtschaftswissenschaftler 13. September 2010 223 / 464 7. Grenzwertsätze 7.2. Der zentrale Grenzwertsatz Approximation der Binomialverteilung mit Stetigkeitskorrektor Für moderate n wird die Approximation besser, wenn die Treppenfunktion N( , ) Sn ∼ Bin(n, p) des Wahrscheinlichkeitshistogramms von der Dichtekurve der 0 1 -Verteilung etwa in der Mitte getroen wird. Sei n( − p ) ! x + . − np P (Sn ≤ x ) = Bin(x |n, p) ≈ Φ pnp( − p) ! ! x + . − np x − . − np P (Sn = x ) ≈ Φ pnp( − p) − Φ pnp( − p) np ≥ n( − p) ≥ -verteilt. Falls np oder 1 groÿ genug sind, gilt 0 5 1 Faustregel: 5, Jürgen Dippon (ISA) 1 0 5 0 5 1 1 5 Statistik für Wirtschaftswissenschaftler 13. September 2010 224 / 464 7. Grenzwertsätze 7.2. Der zentrale Grenzwertsatz Beispiel Speicherchips seien mit Wahrscheinlichkeit 0.1 defekt. Es werde eine Stichprobe vom Umfang Sn n= 100 der laufenden Produktion entnommen. sei die Anzahl der funktionierenden Bauteile. Also Sn ∼ Bin(n, p) = Bin( np = n( − p) Wegen 100, 0.9). 90, Jürgen Dippon (ISA) 1 =10 ist die Faustregel erfüllt. Statistik für Wirtschaftswissenschaftler 13. September 2010 225 / 464 7.2. Der zentrale Grenzwertsatz 7. Grenzwertsätze Beispiel Wie groÿ ist die Wahrscheinlichkeit, dass höchstens sind? P (Sn ≤ 90) ≈Φ + 0.5 − 90 √ 100 · 0.9 · 0.1 90 =Φ 0.5 korrekt sind? P (Sn = 90) ≈Φ 0.5 −Φ | 3 = Φ(0.167) = 0.567 x= 90 Bauteile korrekt 3 Wie groÿ ist die Wahrscheinlichkeit, dass genau x= 90 −0.5 ES = ( n) Bauteile 3 {z } 1−Φ( 03.5 ) =2·Φ Jürgen Dippon (ISA) 0.5 3 − 1 = 0.134 Statistik für Wirtschaftswissenschaftler 13. September 2010 226 / 464 8. Mehrdimensionale Zufallsvariablen 4 Wahrscheinlichkeitsrechnung 5 Diskrete Zufallsvariablen 6 Stetige Zufallsvariablen 7 Grenzwertsätze 8 Mehrdimensionale Zufallsvariablen Begri mehrdimensionale Zufallsvariablen Zweidimensionale diskrete Zufallsvariablen Zweidimensionale stetige Zufallsvariablen Unabhängigkeit von Zufallsvariablen Kovarianz und Korrelation Die zweidimensionale Normalverteilung Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 227 / 464 8. Mehrdimensionale Zufallsvariablen Mehrdimensionale Zufallsvariablen In vielen Anwendungen interessiert nicht nur ein Merkmal, sondern mehrere Merkmale, welche überdies oft nicht unabhängig sind. Das Studium der Abhängigkeit ist häug von zentralem Interesse. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 228 / 464 8. Mehrdimensionale Zufallsvariablen 8.1. Begri mehrdimensionale Zufallsvariablen Begri mehrdimensionale Zufallsvariablen X (ω) Bei einer reellen, also 1-dimensionalen Zufallsvariablen, wird jedem Ergebnis Bei einer ω n eines Zufallsvorganges genau eine reelle Zahl X n X (ω), . . . , Xn(ω) X = (X , . . . , Xn) : Ω −→ Rn ω 7−→ (X (ω), . . . , Xn (ω)) -dimensionalen Zufallsvariablen eines Zufallsvorganges genau reelle Zahlen zugeordnet. werden jedem Ergebnis 1 ω zugeordnet: 1 1 Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 229 / 464 8. Mehrdimensionale Zufallsvariablen 8.1. Begri mehrdimensionale Zufallsvariablen Beispiel: Bei einer zufällig ausgewählten Person werden Alter Geschlecht X 2 , Körpergröÿe X 3 und Körpergewicht Dies liefert eine 4-dimensionale Zufallsvariable X X 1, 4 erhoben. X = (X , X , X , X ) 1 2 3 4 Frage: Wie kann die so genannte gemeinsame Wahrscheinlichkeit P (X ∈ B ) B ⊂ Rn P (X ∈ B , . . . , Xn ∈ Bn) für 1 1 oder für Bi ∈ R n bestimmt werden? Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 230 / 464 8. Mehrdimensionale Zufallsvariablen 8.2. Zweidimensionale diskrete Zufallsvariablen Zweidimensionale diskrete Zufallsvariablen X y ,y ,... Seien 1 Die und Y zwei diskrete Zufallsvariablen mit Werten x ,x ,... 1 2 bzw. 2 gemeinsame Wahrscheinlichkeitsfunktion oder gemeinsame diskrete XY x ∈ {x , x , . . . }, y ∈ {y , y , . . . } Dichte der bivariaten diskreten Zufallsvariable f (x , y ) = Jürgen Dippon (ISA) P (X = x , Y = y ) ( , ) für 1 1 0 ist bestimmt durch 2 2 sonst Statistik für Wirtschaftswissenschaftler 13. September 2010 231 / 464 8. Mehrdimensionale Zufallsvariablen XY 8.2. Zweidimensionale diskrete Zufallsvariablen X Y fX (x ) = P (X = x ) = X f (x , yj ) Bei Kenntnis der gemeinsamen Wahrscheinlichkeitsfunktion ( , ) lässt sich die sog. durch Randverteilung von oder f (x , y ) von leicht berechnen j bzw. fY (y ) = P (Y = y ) = X f (xi , y ) i Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 232 / 464 8. Mehrdimensionale Zufallsvariablen 8.2. Zweidimensionale diskrete Zufallsvariablen X Y =y X |Y = y fY (y ) 6= fX Y (x |y ) = P (X = x | Y = y ) = P (XP=(Yx =, Yy=) y ) = ff(Yx(,yy)) Die bedingte Wahrscheinlichkeitsfunktion von ) erhält man, falls gegeben (kurz 0, durch | (kurz Y X =x Y |X = x fX (x ) 6= fY X (y |x ) = P (Y = y | X = x ) = P (XP=(Xx =, Yx=) y ) = ff(Xx(,xy)) Analog: die bedingte Wahrscheinlichkeitsfunktion von ) erhält man, falls 0, durch gegeben | Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 233 / 464 8. Mehrdimensionale Zufallsvariablen 8.2. Zweidimensionale diskrete Zufallsvariablen Beispiel: 1-maliges Werfen eines fairen Würfels X= Y= f( , f( , f( , f( , 0 Augenzahl gerade 1 Augenzahl ungerade 0 Augenzahl 1 Augenzahl PX= ) = P (X = ) = P (X = ) = P (X = 0 0) 0 1 1 0 1 1 Jürgen Dippon (ISA) = ( ≤3 >3 Y= ,Y = ,Y = ,Y = 0, 0) = 0 1) = 0) = 1) = 1 1 Statistik für Wirtschaftswissenschaftler 1 6 1 3 1 3 1 6 13. September 2010 234 / 464 8.2. Zweidimensionale diskrete Zufallsvariablen 8. Mehrdimensionale Zufallsvariablen X Randverteilung von X i ,j 0 0 j Y i Jürgen Dippon (ISA) 1 2 , fX ( ) = X f ( , j ) = 1 1 j 1 2 : fY ( ) = X f (i , 0 1 : fX ( ) = X f ( , j ) = Randverteilung von f (i , j ) = 0) = 1 2 , fY ( ) = X f (i , 1 Statistik für Wirtschaftswissenschaftler i 1) = 1 2 13. September 2010 235 / 464 8. Mehrdimensionale Zufallsvariablen bedingte Verteilung von X |Y = 8.2. Zweidimensionale diskrete Zufallsvariablen 0: fX Y ( | ) = ff(Y (, )) = fX Y ( | ) = ff(Y (, )) = X |Y = fX Y ( | ) = ff(Y (, )) = fX Y ( | ) = ff(Y (, )) = | 0 0 | 1 0 bedingte Verteilung von Jürgen Dippon (ISA) 0 0 0 1 0 0 1 6 1 2 1 3 1 2 = = 1 3 2 3 1: | 0 1 | 1 1 0 1 1 1 1 1 1 3 1 2 1 6 1 2 = = Statistik für Wirtschaftswissenschaftler 2 3 1 3 13. September 2010 236 / 464 8. Mehrdimensionale Zufallsvariablen Die 8.2. Zweidimensionale diskrete Zufallsvariablen gemeinsame Verteilungsfunktion zu X und Y ist gegeben durch F (x , y ) = P (X ≤ x , Y ≤ y ) = X X f (xi , yj ) xi ≤ x yj ≤ y Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 237 / 464 8. Mehrdimensionale Zufallsvariablen 8.3. Zweidimensionale stetige Zufallsvariablen Zweidimensionale stetige Zufallsvariablen eine auf R2 X Y gemeinsam stetig verteilt, wenn es f (x , y ) Z bZ d P (a ≤ X ≤ b, c ≤ Y ≤ d ) = a c f (x , y )dxdy Die Zufallsvariablen und sind denierte Dichtefunktion ab cd gibt, so dass z = f (x , y ) Diese Wahrscheinlichkeit entspricht dem Volumen des Körpers über dem Rechteck [ , ]×[ , ] Jürgen Dippon (ISA) bis zur durch gegebenen Fläche. Statistik für Wirtschaftswissenschaftler 13. September 2010 238 / 464 8. Mehrdimensionale Zufallsvariablen 8.3. Zweidimensionale stetige Zufallsvariablen Ähnlich wie im 2-dimensionalen diskreten Fall lassen sich denieren: Randdichte von Randdichte von X fX (x ) = R Y fY (y ) = R X |Y = y Y |X = x f (x , y )dy f (x , y )dx fX Y (x |y ) = ffYx yy fY X (y |x ) = ffXx xy : ∞ −∞ : ∞ −∞ bedingte Dichte von : bedingte Dichte von : | ( , ) ( ) | ( , ) ( ) gemeinsame Verteilungsfunktion: F (x , y ) = P (X ≤ x , Y ≤ y ) = Jürgen Dippon (ISA) Z x Z y −∞ −∞ Statistik für Wirtschaftswissenschaftler f (u, v )dvdu 13. September 2010 239 / 464 8. Mehrdimensionale Zufallsvariablen 8.4. Unabhängigkeit von Zufallsvariablen Unabhängigkeit von Zufallsvariablen Die Zufallsvariable Y kann als unabhängig von der Zufallsvariablen angesehen werden, falls X fY X (y |x ) = ff(Xx(,xy)) = fY (y ) | (vorausgesetzt fX (x ) > f (x , y ) = fX (x ) · fY (y ) 0). In diesem Fall gilt Deshalb deniert man: Y unabhängig ∀ ∀ f (x , y ) = fX (x ) · fY (y ) xy X Y abhängig Die Zufallsvariablen Ansonsten heiÿen Jürgen Dippon (ISA) X und und heiÿen (stochastisch) (stochastisch) Statistik für Wirtschaftswissenschaftler , falls . 13. September 2010 240 / 464 8.4. Unabhängigkeit von Zufallsvariablen 8. Mehrdimensionale Zufallsvariablen Diese Denition ist für 2-dimensionale diskrete oder stetige Zufallsvariablen anwendbar. Man kann zeigen, dass die hier gegebene Denition der Unabhängigkeit äquivalent ist zu den in den Abschnitten 6 und 7 gegebenen Denitionen. Sind z.B. zwei stetige Zufallsvariablen denierten Sinne, so folgt X und Y unabhängig in dem oben Z x Z y f (u, v )dudv Z y = fX (u)du fY (v )dv = P (X ≤ x ) · P (Y ≤ y ) P (X ≤ x , Y ≤ y ) = Z−∞ x −∞ Jürgen Dippon (ISA) −∞ −∞ Statistik für Wirtschaftswissenschaftler 13. September 2010 241 / 464 8. Mehrdimensionale Zufallsvariablen 8.4. Unabhängigkeit von Zufallsvariablen Beispiel: Für das in 8.2 gegebene Beispiel gilt f (x , y ) = fX (x ) · fY (y ) nicht. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 242 / 464 8.4. Unabhängigkeit von Zufallsvariablen 8. Mehrdimensionale Zufallsvariablen Erweiterung des Begris der Unabhängigkeit auf n Zufallsvariablen: X , . . . , Xn unabhängig x , . . . , xn P (X ≤ x , . . . Xn ≤ xn) = P (X ≤ x ) · . . . · P (Xn ≤ xn) Die Zufallsvariablen heiÿen 1 , wenn für alle gilt 1 1 1 1 1 Äquivalent dazu ist die Produktbedingung f (x , . . . , xn) = fX (x ) · . . . · fXn (xn) f (x , . . . , xn) X , . . . , Xn Xi i = ,...,n 1 1 wobei 1 die gemeinsame Dichte von Dichte der Zufallsvariable n 1 bezeichnen ( 1 1 ). und fXi die X = (X , . . . , Xn) Diese Denition und Behauptung gilt sowohl für diskrete als auch stetige -dimensionale Zufallsvariablen Jürgen Dippon (ISA) 1 . Statistik für Wirtschaftswissenschaftler 13. September 2010 243 / 464 8. Mehrdimensionale Zufallsvariablen 8.5. Kovarianz und Korrelation Kovarianz und Korrelation X Y Die Wahrscheinlichkeitsfunktion beiden Zufallsvariablen X und Y f (x , y ) liefert alle Informationen über die , auch über deren mögliche Abhängigkeit. Kovarianz und Korrelation sind zwei Begrie zur Beschreibung der Abhängigkeit von Sind X und Y und linearen unter Verwendung einer einzigen Maÿzahl. unabhängig, so gilt E (X · Y ) = E (X ) · E (Y ) (ohne Beweis) Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 244 / 464 8. Mehrdimensionale Zufallsvariablen Sind die Zufallsvariablen X und Y 8.5. Kovarianz und Korrelation abhängig, so liefert die Dierenz E (XY ) − E (X ) · E (Y ) = E [(X − E (X )) · (Y − E (Y ))] eine Maÿzahl für die Stärke der Abhängigkeit. Wir denieren deshalb: X Y Cov (X , Y ) = E ((X − E (X )) · (Y − E (Y ))) Die Kovarianz der Zufallsvariablen Jürgen Dippon (ISA) und ist gegeben durch Statistik für Wirtschaftswissenschaftler 13. September 2010 245 / 464 8. Mehrdimensionale Zufallsvariablen Die Kovarianz liefert ein Maÿ für die 8.5. Kovarianz und Korrelation lineare Abhängigkeit und lässt sich berechnen durch Cov (X , Y ) = X X f (xi , yj )(xi − E (X ))(yj − E (Y )) falls X Y Z Cov (X , Y ) = X Y und i diskret sind, bzw. ∞ −∞ falls und j Z ∞ −∞ f (x , y )(x − E (X ))(y − E (Y ))dxdy stetig sind. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 246 / 464 8.5. Kovarianz und Korrelation 8. Mehrdimensionale Zufallsvariablen Y cY + d Werden die Zufallsvariablen und e = , so gilt X und Y linear transformiert zu Xe = aX + b Cov (Xe , Ye ) = a · c · Cov (X , Y ) Da die Kovarianz oensichtlich maÿstabsabhängig ist, wird in der Praxis der durch XY Cov (Xp, Y ) Var (X ) · Var (Y ) % = %( , ) = p denierte Korrelationskoezient bevorzugt. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 247 / 464 8. Mehrdimensionale Zufallsvariablen 8.5. Kovarianz und Korrelation Eigenschaften des Korrelationskoezienten: XY −1 ≤ %( , ) ≤ 1 XY Y aX b ab X aX b Y cY d a c e, Y e )| = |%(X , Y )| |%(X X Y unkorreliert %(X , Y ) = %(X , Y ) 6= korreliert |%( , )| = 1 ⇔ = + für Konstanten , e= + , e = + mit , = 6 0: Zwei Zufallsvariablen und heiÿen , falls 0 Ist 0, so heiÿen sie . Man kann zeigen, dass zwei unabhängige Zufallsvariablen auch immer unkorreliert sind. Die Umkehrung gilt im Allgemeinen nicht. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 248 / 464 8.5. Kovarianz und Korrelation 8. Mehrdimensionale Zufallsvariablen Varianz der Summe zweier u.U. abhängigen Zufallsvariablen: Var (X + X ) = E (X + X − E (X ) − E (X )) = E (X − E (X )) + E ((X − E (X )) (X − E (X ))) + E (X − E (X )) = Var (X ) + Var (X ) + Cov (X , X ) 1 2 1 2 1 2 1 1 1 2 Jürgen Dippon (ISA) 2 1 1 2 2 2 2 2 2 2 2 Statistik für Wirtschaftswissenschaftler 1 2 13. September 2010 249 / 464 8.5. Kovarianz und Korrelation 8. Mehrdimensionale Zufallsvariablen Linearkombination von Zufallsvariablen Sei X Xi ai X = a X + · · · + anXn z.B. der zufallsabhängige Gesamtwert eines Devisen-Portfolios mit Einzelwerten und Umrechnungsfaktoren 1 : 1 Dann gilt: E (X ) = a E (X ) + · · · + anE (Xn) Var (X ) = E ((X − E (X )) ) ! n X ai (Xi − E (Xi )) =E 1 1 2 2 i =1 n X X 2 2 = i j ( i − ( i ))( j − ( j )) i ( i − ( i )) + i =1 i 6=j n X X 2 = ( i) + 2 ( i, j) i j i i =1 i <j E a X EX a Var X Jürgen Dippon (ISA) aa X E X X E X a a Cov X X Statistik für Wirtschaftswissenschaftler 13. September 2010 250 / 464 8.5. Kovarianz und Korrelation 8. Mehrdimensionale Zufallsvariablen Beispiel: Portfolio Optimierung a a X ,X 1 und Ein Startkapital werde in den Anteilen Wertanlagen, z.B. Aktien, aufgeteilt. 1 2 mit a +a 1 2 =1 auf zwei 2 seien die zufallsabhängigen Renditen der beiden Anlagen. Die Gesamtrendite ist somit X =a X +a X 1 1 2 2 Und die zu erwartende Gesamtrendite ist: E (X ) = a E (X ) + a E (X ) 1 1 2 2 Die Varianz der Gesamtrendite kann als ein Risikomaÿ für die Gesamtrendite interpretiert werden: Var (X ) = a Var (X ) + a Var (X ) + a a Cov (X , X ) 2 1 Jürgen Dippon (ISA) 1 2 2 2 2 1 2 Statistik für Wirtschaftswissenschaftler 1 2 13. September 2010 251 / 464 8.5. Kovarianz und Korrelation 8. Mehrdimensionale Zufallsvariablen Mit σi2 = Var (Xi ), ρ = Cor (X , X ) Var (X ) = a σ + a σ 1 2 1 2 ist: 2 1 2 2 2 2 +2 aaσσρ 1 2 1 2 Je nachdem, ob die Renditen der beiden Anlagen positiv oder negativ korreliert sind, ist das Gesamtrisiko gröÿer oder kleiner als die Summe der Einzelrisiken. Spezialfall: σ = σ1 = σ2 , ρ = 1 Var (X ) = a σ + a σ 2 1 Spezialfall: Falls 2 2 2 +2 aaσ 1 2 σ = σ1 = σ2 , ρ = −1 a =a 1 2 Var (X ) = a σ + a σ 2 1 2 = 0.5, Jürgen Dippon (ISA) 2 2 2 2 −2 2 aaσ 1 2 a +a ) σ =( 2 1 2 2 2 = σ2 a −a ) σ =( 1 2 2 2 ist das Gesamtrisiko gleich Null. Statistik für Wirtschaftswissenschaftler 13. September 2010 252 / 464 8. Mehrdimensionale Zufallsvariablen 8.6. Die zweidimensionale Normalverteilung Die zweidimensionale Normalverteilung Dichte einer 1-dimensional normalverteilten Zufallsvariablen f (x ) = √ πσ exp 1 2 wobei EX µ = ( ), σ 2 = Jürgen Dippon (ISA) ( − 1 2 x −µ 2 ) σ , X : x ∈ R, Var (X ) . Statistik für Wirtschaftswissenschaftler 13. September 2010 253 / 464 8. Mehrdimensionale Zufallsvariablen 8.6. Die zweidimensionale Normalverteilung Erweiterung der Normalverteilung auf 2-dimensionale Zufallsvariablen: Die Zufallsvariablen X und Y heiÿen gemeinsam normalverteilt, wenn ihre gemeinsame Dichte bestimmt ist durch f (x , y ) = wobei 1 2π det(Σ)1/2 exp ( − 1 2 x −µ y −µ 1 t Σ− 1 2 2 1 ) und 2 1 1 Jürgen Dippon (ISA) x −µ y −µ 2 x , y ∈ R, µ = E (X ), µ = E (Y ) Var (X ) Cov (X , Y ) σ Σ= = Cov (X , Y ) Var (Y ) σ σ ρ 1 Statistik für Wirtschaftswissenschaftler 2 σ1 σ2 ρ σ22 13. September 2010 254 / 464 8. Mehrdimensionale Zufallsvariablen Beispiel: Seien X 8.6. Die zweidimensionale Normalverteilung 1 das Haushaltseinkommen und Haushaltsausgaben. Jürgen Dippon (ISA) X Statistik für Wirtschaftswissenschaftler 2 die 13. September 2010 255 / 464 8. Mehrdimensionale Zufallsvariablen 8.6. Die zweidimensionale Normalverteilung Abbildung: 2-dimensionale Normalverteilung Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 256 / 464 8. Mehrdimensionale Zufallsvariablen 8.6. Die zweidimensionale Normalverteilung Abbildung: 2-dimensionale Normalverteilung Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 257 / 464 8.6. Die zweidimensionale Normalverteilung 8. Mehrdimensionale Zufallsvariablen Der unkorrelierte Fall X Y Sind die Zufallsvariablen X und Y mit gemeinsamer Normalverteilung unkorreliert, d.h. ρ = 0, so ist Fall: Σ= f (x , y ) = σ12 0 1 2πσ1 σ2 0 exp ( − exp − = fX (x ) · fY (y ) =√ 1 2πσ1 Jürgen Dippon (ISA) 2 1 , ( sogar unabhängig, da in diesem det (Σ) = σ σ , σ22 und 1 2 1 σ1 2 1 x −µ x −µ 1 σ1 2 2 2 − Σ− 1 = 1 ·√ σ1−2 0 x −µ 2 2 1 2πσ2 Statistik für Wirtschaftswissenschaftler exp 0 σ2−2 ) σ2 2 2 ) ( − 1 2 y −µ 2 2 ) σ2 13. September 2010 258 / 464 Teil III Induktive Statistik Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 259 / 464 Induktive Statistik 9 Parameterschätzung 10 Testen von Hypothesen 11 Spezielle Tests 12 Lineare Regression 13 Zeitreihen Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 260 / 464 Schlieÿende Statistik Wie kann man basierend auf einer Stichprobe Informationen über die Verteilung eines interessierenden Merkmals erhalten? Schätzverfahren dienen zur näherungsweisen Ermittlung unbekannter Parameter der Verteilung Testverfahren dienen zur Überprüfung von Hypothesen über die unbekannte Verteilung Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 261 / 464 9. Parameterschätzung 9 Parameterschätzung Parameterschätzung Eigenschaften von Schätzstatistiken Erwartungstreue Erwartete mittlere quadratische Abweichung und Konsistenz Eziente Schätzstatistiken Konstruktion von Schätzfunktionen Maximum-Likelihood-Schätzung Kleinste-Quadrate-Schätzung Bayes-Schätzung Intervallschätzung Kondenzintervalle für Erwartungswert und Varianz 10 Testen von Hypothesen 11 Spezielle Tests 12 Lineare Regression Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 262 / 464 9. Parameterschätzung Beispiel: Wie hoch ist der relative Anteil von Frauen unter den Hochschullehrern in Deutschland? Da eine Totalerhebung viel zu aufwändig wäre, bestimmt man den relativen Anteil der Frauen in einer Zufallsstichprobe. Dieser relative Anteil in der Stichprobe ist ein Schätzer für den wahren Anteil in der Grundgesamtheit. Da eine zweite Stichprobe einen anderen Schätzwert liefern würde, stellt sich u.a. die Frage nach der Qualität des Schätzers. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 263 / 464 9.1. Parameterschätzung 9. Parameterschätzung Parameterschätzung Einer Schätzfunktion oder Schätzstatistik für den Parameter θ der Verteilung der Grundgesamtheit ist eine Funktion T = g (X , . . . , Xn) X , . . . , Xn x , . . . , xn g (x , . . . , xn) 1 der Stichprobenvariablen . 1 Der aus den Realisationen resultierende numerische Wert 1 1 ist der zugehörige Schätzwert. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 264 / 464 9.1. Parameterschätzung 9. Parameterschätzung Beispiele: X̄ = g (X , . . . , Xn) = n Pni Xi µ = E (X ) x̄ S = g (X , . . . , Xn) = n Pni (Xi − X̄ ) σ = Var (X ) 1 1 =1 Schätzfunktion für den Erwartungswert zugehörige Realisation der Stichprobe 2 1 1 −1 Schätzfunktion für die Varianz Jürgen Dippon (ISA) =1 2 2 Statistik für Wirtschaftswissenschaftler 13. September 2010 265 / 464 9. Parameterschätzung 9.2. Eigenschaften von Schätzstatistiken Eigenschaften von Schätzstatistiken Erwartungstreue Eine Schätzstatistik T = g (X , . . . , Xn) 1 unverzerrt für den Parameter θ, falls heiÿt erwartungstreu oder E (T ) = θ θ Sie heiÿt asymptotisch erwartungstreu für θ, falls lim n→∞ Die E (T ) = θ θ Verzerrung oder der Bias ist deniert durch Bias (T ) = E (T ) − θ θ Das tief gestellte θ in E θ θ soll andeuten, dass der Erwartungswert von bezüglich der Verteilung berechnet werden soll, die θ T als wahren Parameter besitzt. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 266 / 464 9.2. Eigenschaften von Schätzstatistiken 9. Parameterschätzung Beispiele: E (X̄ ) = E ( n Pni Xi ) = n Pni E| {z(Xi}) = µ X̄ E (S ) = E ( n Pni (Xi − X̄ ) ) = · · · = σ S E (S̃ ) = E ( n Pni (Xi − X̄ ) ) = · · · = n n σ S̃ Bias (S̃ ) = E (S̃ ) − σ = − n σ S̃ σ µ 1 µ 1 =1 µ =1 µ Also ist σ2 2 Also ist σ2 ein erwartungstreuer Schätzer für den Erwartungswert σ2 2 2 Also ist σ2 Also ist 1 1 −1 2 2 =1 kein erwartungstreuer Schätzer für die Varianz 2 2 =1 −1 µ 2 ein erwartungstreuer Schätzer für die Varianz σ2 2 2 σ2 2 2 1 2 asymptotisch erwartungstreu für Jürgen Dippon (ISA) σ2 Statistik für Wirtschaftswissenschaftler 2 13. September 2010 267 / 464 9.2. Eigenschaften von Schätzstatistiken 9. Parameterschätzung Frage: Wie genau schätzt X̄ den Erwartungswert? n X Var (X̄ ) = Var n Xi i 1 ! = =1 Der 1 n 2 n X i =1 Var (Xi ) = σn 2 Standardfehler einer Schätzstatistik ist bestimmt durch die Standardabweichung der Schätzstatistik σg = Var (g (X , . . . , Xn)) p 1 Achtung: Der Begri des Standardfehlers ist nur sinnvoll für erwartungstreue Schätzstatistiken! Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 268 / 464 9. Parameterschätzung Der Standardfehler von X̄ 9.2. Eigenschaften von Schätzstatistiken ist damit σ σX̄ = √ n Da σ2 X̄ meist unbekannt sein dürfte, muss es geschätzt werden. Ein σX̄ von ist s Pn 1 i =1 ( i − n −1 = Schätzer für den Standardfehler r σ̂X̄ = Jürgen Dippon (ISA) S n 2 n X X̄ ) Statistik für Wirtschaftswissenschaftler 2 13. September 2010 269 / 464 9.2. Eigenschaften von Schätzstatistiken 9. Parameterschätzung Erwartete mittlere quadratische Abweichung und Konsistenz Die erwartete mittlere quadratische Abweichung (mean squared error) ist bestimmt durch MSE =E (T − θ) =E (T − E (T ) + E (T ) − θ) =E ((T − E (T )) + E ((T − E (T )) ((E (T ) − θ)) {z } | + E ((E (T ) − θ) )) =Var (T ) + (Bias (T )) 2 2 2 2 =0 2 2 Diese Zerlegung des MSE zeigt, dass der Standardfehler nur dann ein Bias (T ) = brauchbares Vergleichsmaÿ für die Güte eines Schätzers ist, wenn der Schätzer erwartungstreu ist, d.h. Jürgen Dippon (ISA) 0. Statistik für Wirtschaftswissenschaftler 13. September 2010 270 / 464 9.2. Eigenschaften von Schätzstatistiken 9. Parameterschätzung Eine Schätzstatistik heiÿt konsistent im quadratischen Mittel, falls MSE = E ((T − θ) ) → 2 und 0 für 0 für schwach konsistent, falls ∀ ε>0 P (|T − θ| ≥ ε) → n→∞ n→∞ Konsistenz im quadratischen Mittel impliziert schwache Konsistenz. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 271 / 464 9.2. Eigenschaften von Schätzstatistiken 9. Parameterschätzung Beispiel: Arithmetisches Mittel X , . . . , Xn ∼ N (µ, σ ) 2 1 unabhängige Zufallsvariablen Schätzen des Erwartungswertes µ mittels n X X̄ = n Xi 1 Da Da E X̄ = · · · = µ X̄ Var (X̄ ) = · · · = n → , ist σ2 Mittel. Ferner gilt Jürgen Dippon (ISA) i =1 erwartungstreu. 0 n ( → ∞) X̄ ∼ N ist µ, X̄ σ2 n konsistent im quadratischen Statistik für Wirtschaftswissenschaftler 13. September 2010 272 / 464 9.2. Eigenschaften von Schätzstatistiken 9. Parameterschätzung Also P (|X̄ − µ| ≤ ε) = P X̄ − µ ≤ √σ n n −Φ − √σ n ε =2 Φ | √σ ! ε =Φ ! ε ε ! √σ n ! √σ n −1 {z } n→∞ →1 für →1 Damit ist X̄ für n→∞ auch schwach konsistent. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 273 / 464 9. Parameterschätzung 9.3. Eziente Schätzstatistiken Eziente Schätzstatistiken T Parameters θ, so heiÿt 1 T T T MSE (T ) ≤ MSE (T ) Vergleicht man zwei Schätzstatistiken 1 und wirksamer als 2 zur Schätzung des 2 , falls 1 2 für alle zugelassenen Verteilungen. T 1 heiÿt wirksamst oder ezient, wenn Schätzstatistiken Sind T 1 und T T MSE (T ) ≤ MSE (T ) 1 2 für alle 2 und alle zugelassenen Verteilungen. T Var (T ) ≤ Var (T ) 2 erwartungstreu, so ist 1 1 wirksamer als T 2 , falls 2 für alle zugelassenen Verteilungen. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 274 / 464 9. Parameterschätzung 9.3. Eziente Schätzstatistiken Beispiele für wirksamste Schätzstatistiken: X̄ X̄ für den Erwartungswert, wenn alle Verteilungen mit endlicher Varianz zugelassen sind für den Erwartungswert, wenn alle Normalverteilungen zugelassen sind Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 275 / 464 9. Parameterschätzung 9.4. Konstruktion von Schätzfunktionen Konstruktion von Schätzfunktionen Wir diskutieren vier Ideen zur Konstruktion von Schätzfunktionen: Maximum-Likelihood-Schätzung Kleinste-Quadrate-Schätzung Bayes-Schätzung Intervallschätzung Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 276 / 464 9.4. Konstruktion von Schätzfunktionen 9. Parameterschätzung Maximum-Likelihood-Schätzung Beispiel: Gesucht ist die Wahrscheinlichkeit Ereignisses A im Rahmen eines Experiments X= Die Ausgänge von n 0 falls 1 falls Klar: Pn i =1 für das Auftreten eines nicht eintritt eintritt X unabhängigen Wiederholungen des Experimentes X , . . . , Xn Xi ∼ Bin(n, p) werden dann beschrieben durch die Zufallsvariablen n A A p unabhängigen wie verteilten 1 Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 277 / 464 9.4. Konstruktion von Schätzfunktionen 9. Parameterschätzung Hierbei ist n natürlich bekannt, nicht jedoch die Erfolgswahrscheinlichkeit L(p) = P n X i =1 Xi = k p ! n pk ( − p)n k p̂ L(p) = 1 −k Das Maximum-Likelihood-Prinzip wählt als Schätzwert für die unbekannte Wahrscheinlichkeit maximiert. Jürgen Dippon (ISA) den Wert, welcher Statistik für Wirtschaftswissenschaftler p 13. September 2010 278 / 464 9.4. Konstruktion von Schätzfunktionen 9. Parameterschätzung Allgemein: Sei θ f (x |θ) n der gesuchte ein- oder mehrdimensionale Parameter einer (diskreten oder stetigen) Dichte Dann ist die gemeinsame Dichte von Wiederholungen gegeben durch . unabhängigen identischen f (x , . . . , xn|θ) = f (x |θ) · . . . · f (xn|θ) 1 Jürgen Dippon (ISA) 1 Statistik für Wirtschaftswissenschaftler 13. September 2010 279 / 464 9.4. Konstruktion von Schätzfunktionen 9. Parameterschätzung Anstatt diese Dichte als eine Funktion zu beliebigen Werten einem festen Parameter Likelihoodfunktion θ x , . . . , xn 1 zu interpretieren, interpretieren wir die sog. L(θ) = f (x , . . . , xn|θ) 1 als eine Funktion von θ und zu den gegebenen festen Realisationen und wählen als Parameterschätzung denjenigen Parameter θ, x , . . . , xn 1 für welchen die Likelihood maximal ist, d.h. L(θ̂) = L(θ) T = θ̂(x , . . . , xn) max θ Eine so konstruierte Schätzfunktion Maximum-Likelihood-Schätzer. Jürgen Dippon (ISA) 1 Statistik für Wirtschaftswissenschaftler heiÿt 13. September 2010 280 / 464 9. Parameterschätzung 9.4. Konstruktion von Schätzfunktionen Das Maximum bestimmt man meist durch Ableiten und Nullsetzen der Ableitung. Häug ist es jedoch geschickter, die sog. ln in θ L(θ) = n X i =1 ln Log-Likelihood f (xi |θ) zu maximieren, welche an denselben Stellen maximal wird, da die Logarithmusfunktion ln eine streng monoton wachsende Funktion ist. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 281 / 464 9. Parameterschätzung 9.4. Konstruktion von Schätzfunktionen Beispiel: Poisson-Verteilung Gesucht: Parameter λ Pois (λ) x , . . . , xn X , . . . , Xn einer Gegeben: Realisationen 1 verteilten Zufallsvariablen Likelihoodfunktion -verteilten Zufallsgröÿe X von unabhängigen identisch wie X 1 x1 x L(λ) = e λx ! · . . . · e λxnn! −λ −λ 1 Log-Likelihoodfunktion n ln x n L(λ) = X e λxi !i = X(−λ + xi i i n X L(λ) = (− + xi ) = ln −λ =1 ∂ ln ∂λ =1 1 λ̂ ln λ x − ln ( i !)) 0 iP =1 n i =⇒ λ̂ = i =1 = Jürgen Dippon (ISA) x x̄ n Statistik für Wirtschaftswissenschaftler 13. September 2010 282 / 464 9.4. Konstruktion von Schätzfunktionen 9. Parameterschätzung Beispiel: Normalverteilung X , . . . , Xn Gesucht: Parameter 1 µ, σ einer N (µ, σ ) 2 X -verteilten Zufallsgröÿe unabhängige Wiederholungen einer wie Zufallsgröÿe. -verteilten X Likelihoodfunktion zu den Realisierungen L(µ, σ) = √ πσ e x · . . . · √ πσ e xn n X (xi − µ) √ − L(µ, σ) = σ πσ i n X √ (xi − µ) = − π− σ− ( −µ) − 1 2 2σ 1 2 1 2 ln − ( −µ)2 2σ2 2 2 1 ln 2 2 2 =1 2 ln 2 ln i =1 Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 2σ 2 13. September 2010 283 / 464 9. Parameterschätzung Partielles Dierenzieren nach L µ und σ 9.4. Konstruktion von Schätzfunktionen und Nullsetzen x n ∂ ln (µ, σ) X i − µ̂ = =0 ∂µ σ̂ 2 i =1 n 2 1 2( i − µ̂) ∂ ln (µ, σ) X = − + =0 ∂σ σ̂ 2σ̂ 3 i =1 L Jürgen Dippon (ISA) x Statistik für Wirtschaftswissenschaftler 13. September 2010 (1) (2) 284 / 464 9. Parameterschätzung Aus (1): n X i =1 xi − nµ̂ = also µ̂ = Aus (2): − also 9.4. Konstruktion von Schätzfunktionen 0, x̄ n + Xn (xi − µ̂) 2 2 σ̂ i =1 2σ̂ 3 =0 v v u n u n u1 X u1 X 2 t ( i − µ̂) = t ( i − )2 σ̂ = i =1 i =1 n x n x x̄ Oensichtlich erhält man die bereits bekannten Schätzstatistiken Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler X̄ 13. September 2010 und S̃ . 285 / 464 9. Parameterschätzung 9.4. Konstruktion von Schätzfunktionen Kleinste-Quadrate-Schätzung Prinzip der kleinsten Quadrate: Wähle den Parameter so, dass die Summe der quadrierten Abweichungen zwischen Beobachtungswert und geschätztem Wert minimal wird. Wichtig im Rahmen der Regressionsanalyse. Beispiel: Schätze den Lageparameter µ so, dass n Q (µ) := X(Xi − µ) i dQ = Xn (Xi − µ̂) = dµ i n X =⇒ µ̂ = n Xi = X̄ 2 minimal =1 2 0 =1 1 i =1 Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 286 / 464 9. Parameterschätzung 9.4. Konstruktion von Schätzfunktionen Bayes-Schätzung frequentistischen Statistik geht man Bayes-Statistik davon aus, dass der Parameter θ selber Realisierung Im Gegensatz zur klassischen oder in der einer Zufallsvariablen Θ mit einer vorgegebenen a-priori-Verteilung ist. Unter Verwendung einer Bayes-Formel wird dann, basierend auf einer Stichprobe, die a-posteriori-Verteilung von θ Θ bestimmt. Als Schätzwert für wählt man dann häug den Erwartungswert, Median oder Modus der a-posteriori-Verteilung von Jürgen Dippon (ISA) Θ. Statistik für Wirtschaftswissenschaftler 13. September 2010 287 / 464 9.4. Konstruktion von Schätzfunktionen 9. Parameterschätzung X Wir betrachten zunächst den Fall, dass nur eine Beobachtung diskreten oder stetigen Zufallsvariablen Benötigte Bezeichnungen: f (x , θ) f (θ) f (x ) f (θ|x ) f (x |θ) gemeinsame Dichte von a-priori-Dichte von Randverteilung von X =x Θ X Θ ) die bedingte Dichte von Jürgen Dippon (ISA) und X x der Θ (Randdichte von a-posteriori-Dichte von Beobachtung X vorliegt. Θ) (bedingte Dichte von , gegeben Θ, gegeben die Θ=θ Statistik für Wirtschaftswissenschaftler 13. September 2010 288 / 464 9. Parameterschätzung Dann gilt folgende Form des 9.4. Konstruktion von Schätzfunktionen Satzes von Bayes f (θ|x ) = f f(x(x, θ)) = f (xf|θ)(xf)(θ) = Pf (x |θ)f (θ) i f (x |θi )f (θi ) falls Θ diskret R f (x |θ)f (θ) f (x |θ)f (θ)d θ falls Θ stetig wir x x x fx x ( 1 , . . . , n ) vor, ersetzen Dichte ( 1 , . . . , n |θ). Sind die f (x |θ) X , . . . , Xn f (x , . . . , xn|θ) = f (x |θ) · . . . · f (xn|θ) = L(θ) Liegt statt einer Beobachtung eine Stichprobe durch die bedingte gemeinsame Variablen unabhängig und identisch verteilt, so gilt 1 1 Jürgen Dippon (ISA) 1 Statistik für Wirtschaftswissenschaftler 13. September 2010 289 / 464 9. Parameterschätzung 9.4. Konstruktion von Schätzfunktionen x x (θ)f (θ) f (θ|x , . . . , xn) = R LL(θ) f (θ)d θ Die a-posteriori-Dichte von durch θ zur Stichprobe ( 1, . . . , n) ist dann gegeben 1 vorausgesetzt, (Ist Θ Θ ist eine stetige Zufallsvariable. diskret, muss das Integral im Nenner sinngemäÿ durch eine Summe ersetzt werden.) Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 290 / 464 9. Parameterschätzung 9.4. Konstruktion von Schätzfunktionen Daraus können dann verschiedene Bayes-Schätzer abgeleitet werden: A-posteriori-Erwartungswert: E x x θ̂p = (θ| 1 , . . . , n ) = (falls θ f x Z x d θ (θ| 1 , . . . , n ) θ stetig) A-posteriori-Modus oder Maximum-a-posteriori-Schätzer: wähle denjenigen Parameterwert θ̂MAP , für den die a-posteriori-Dichte maximal wird, d.h. L(θ̂MAP )f (θ̂MAP ) = max θ L(θ)f (θ) oder äquivalent ln L(θ̂MAP ) + f (θ̂MAP ) = Jürgen Dippon (ISA) ln max {ln θ Statistik für Wirtschaftswissenschaftler L(θ) + f (θ)} ln 13. September 2010 291 / 464 9. Parameterschätzung 9.4. Konstruktion von Schätzfunktionen Bemerkungen Das Integral im Nenner der a-posteriori-Dichte ist nur in speziellen Fällen explizit zu berechnen und muss deshalb häug approximiert werden, z.B. mit Monte-Carlo-Methoden. Für die Berechnung des Maximum-a-posteriori-Schätzers genügt die Maximierung des Zählers. Je acher die a-priori-Dichte von Θ, d.h. je geringer die (angenommene) Kenntnis über die Lage des wahren Parameters θ, umso mehr stimmt der MAP-Schätzer mit dem Maximum-Likelihood-Schätzer überein. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 292 / 464 9. Parameterschätzung 9.4. Konstruktion von Schätzfunktionen Beispiel X , . . . , Xn 1 unabhängige Wiederholungen von gesucht und σ 2 N bekannt sei. X ∼ N (µ, σ ) 2 , wobei µ µ: (µ0 , σ02 ) mit bekanntem µ0 und σ02 Likelihoodfunktion zu 1 , . . . , n |µ: 1 ( 1 − µ)2 ( n − µ)2 1 √ √ · ... · exp − exp − (µ) = 2σ 2 2σ 2 2πσ 2πσ x A-priori-Verteilung von x L A-posteriori-Dichte von x x x x µ| 1 , . . . , n (µ)f (µ) f (µ|x , . . . , xn) = R LL(µ) f (µ)d µ 1 = ··· = Jürgen Dippon (ISA) Dichte der N (µ̃, σ̃ ) Statistik für Wirtschaftswissenschaftler 2 -Verteilung 13. September 2010 293 / 464 9. Parameterschätzung 9.4. Konstruktion von Schätzfunktionen mit a-posteriori-Erwartungswert µ̃ = nσ x̄ + σ µ nσ + σ nσ + σ 2 0 2 0 2 2 0 2 und a-posteriori-Varianz σ̃ 2 = 2 0 σ2 n+ σ2 σ02 Extremfälle: Für Für σ02 → 0 (exaktes Vorwissen) folgt µ̃ → µ0 und σ̃ 2 → 0 2 σ02 → ∞ (kein Vorwissen) folgt µ̃ → und σ̃ 2 → σn x̄ Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 294 / 464 9.5. Intervallschätzung 9. Parameterschätzung Intervallschätzung Wie der Name schon sagt, liefert die Punktschätzung einen (zufälligen) Wert θ̂ für den gesuchten Parameter θ, der aber in den meisten Fällen mit dem gesuchten Wert nicht übereinstimmt. Ist der Schätzer erwartungstreu, liefert der Standardfehler ein sinnvolles Maÿ für die Präzision des Schätzverfahrens. Ein alternatives Vorgehen steht in Form der Intervallschätzung zur Verfügung, welches ein (zufallsabhängiges) Intervall angibt, in dem der gesuchte Parameter mit einer vorgegebenen (Mindest-)Wahrscheinlichkeit liegt: Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 295 / 464 9. Parameterschätzung 9.5. Intervallschätzung Irrtumswahrscheinlichkeit α werden aus den X , . . . , Xn Gu = gu (X , . . . , Xn) ≤ Go = go (X , . . . , Xn) Zu vorgegebener Stichprobenvariablen Schätzstatistiken 1 1 so konstruiert, dass d.h. 1 P (θ ∈ [Gu , Go ]) ≥ 1 −α P (Gu ≤ θ ≤ Go ) ≥ − α [Gu , Go ] (1 − α)-Kondenzintervall 1 . Dann heiÿt (1 − α)-Vertrauensintervall) Typische Werte für Jürgen Dippon (ISA) (oder für den unbekannten Parameter θ. α: 0.1, 0.05, 0.01. Statistik für Wirtschaftswissenschaftler 13. September 2010 296 / 464 9. Parameterschätzung X , . . . , Xn Setzt man prinzipiell 1 Gu = −∞ ) erhält man ein oder 9.5. Intervallschätzung Go = ∞ (für alle Werte von einseitiges (1 − α)-Kondenzintervall P (θ ≤ Go ) ≥ Go P (Gu ≤ θ) ≥ Gu . mit der oberen Kondenzschranke 1 −α , bzw. 1 −α mit der unteren Kondenzschranke Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 297 / 464 9. Parameterschätzung Ist x , . . . , xn 1 X , . . . , Xn [gu (x , . . . , xn ), go (x , . . . , xn )] eine Realisation von , so ergibt sich durch 1 1 ein 9.5. Intervallschätzung 1 realisiertes Kondenzintervall, das den unbekannten Parameter θ entweder enthält oder nicht enthält. G G (1 − α)-Kondenzintervall [ u , o ] für θ muss so interpretiert werden, [ u , o ] in (1 − α) · 100% der Fälle, in denen Kondenzintervalle geschätzt werden, die resultierenden Kondenzintervalle den wahren Wert θ Das dass G G enthalten. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 298 / 464 9. Parameterschätzung 9.5. Intervallschätzung Kondenzintervalle für Erwartungswert und Varianz X , . . . , Xn 1 unabhängige Wiederholungen von X ∼ N (µ, σ ) 2 . Gesucht: Kondenzintervalle für den unbekannten Erwartungswert µ. 1. Fall: σ 2 bekannt X̄ ist ein Schätzer für µ X̄ ∼ N µ, n X̄ − µ ∼ N ( , ) √σ n Jürgen Dippon (ISA) σ2 0 1 Statistik für Wirtschaftswissenschaftler 13. September 2010 299 / 464 9.5. Intervallschätzung 9. Parameterschätzung Sei z das 1− α 2 (1 − α2 )-Quantil der Dann gilt 1 N( , 0 1)-Verteilung. X̄ − µ ≤ z − α = P −z ≤ 1− α 2 √σ n ! 1− α 2 P z n X̄ z n σ σ √ ≤ µ ≤ X̄ + z √ = P X̄ − z n n = σ − 1− α2 √ ≤ σ − µ ≤ 1− α2 √ 1− α 2 Damit ist G G [ u, o] = ein X̄ − z Jürgen Dippon (ISA) 1− α 2 (1 − α)-Kondenzintervall für α 1− 2 n X̄ + z σ √ , α 1− 2 σ √ n µ. Statistik für Wirtschaftswissenschaftler 13. September 2010 300 / 464 9. Parameterschätzung n→∞ G G [Gu , Go ] → ∞ : Breite von α → 1: Breite von 9.5. Intervallschätzung [ u, o] → 0 In ähnlicher Weise ndet man die einseitigen Kondenzintervalle für − ∞, Jürgen Dippon (ISA) X̄ z σ i + 1− α2 √ n bzw. h X̄ − z Statistik für Wirtschaftswissenschaftler 1− α 2 µ: σ √ ,∞ n 13. September 2010 301 / 464 9.5. Intervallschätzung 9. Parameterschätzung 2. Fall: σ 2 unbekannt Da σ2 wird unbekannt ist, ist auch die Verteilung von σ durch S v u u =t geschätzt. Die Zufallsvariable n X 1 n− 1 i =1 X̄ −µ σ n √ unbekannt. Deshalb X X̄ ) ( i− 2 X̄ − µ √S n n ist jetzt allerdings nicht mehr normalverteilt, sondern ( − 1) Freiheitsgraden. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler tn −1 - verteilt mit 13. September 2010 302 / 464 9. Parameterschätzung Sind Z , Z , . . . , Zn 1 unabhängige 9.5. Intervallschätzung N( , 0 1)-verteilte Zufallsvariablen, dann T = qZ Z heiÿt die Verteilung von t - oder Student-verteilt mit n 2 2 1 +···+Zn n Freiheitsgraden. Die Tails (Flanken) der Dichten fallen nur wie bei der Normalverteilung. Jürgen Dippon (ISA) ∼ x −n und nicht Statistik für Wirtschaftswissenschaftler ∼ exp(− x2 ) 13. September 2010 2 303 / 464 9.5. Intervallschätzung 9. Parameterschätzung tn sei das (1 −1,1− α 2 Konstruktion eines 1 −α= − α2 )-Quantil der P −tn −1,1− α 2 P X̄ − tn X̄ − µ ≤ tn ≤ √S n α −1,1− 2 [ u, o] = ein X̄ − tn (1 − α)-Kondenzintervall für den Erwartungswert −1,1− α 2 µ: ! −1,1− α 2 S √ ≤ µ ≤ X̄ + tn n Damit ist G G −1 -Verteilung. (1 − α)-Kondenzintervalles = tn S √ , X̄ + tn n α −1,1− 2 −1,1− α 2 für den Erwartungswert µ, S√ n S√ n falls σ2 unbekannt ist. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 304 / 464 9.5. Intervallschätzung 9. Parameterschätzung n N (µ, n ) S √ , X̄ + z [Gu , Go ] = X̄ − z n Da für groÿe Stichprobenumfänge approximativ σ2 das arithmetische Mittel -verteilt ist, kann man zeigen, dass für 1− α 2 ein approximatives falls σ2 (1 − α)-Kondenzintervall 1− α 2 S√ n X̄ n≥ 30 für den Erwartungswert µ ist, unbekannt ist. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 305 / 464 9.5. Intervallschätzung 9. Parameterschätzung Konstruktion eines (1 − α)-Kondenzintervalles für die Varianz bei normalverteilter Grundgesamtheit: σ2 kann mittels Sind Z , . . . , Zn 1 S 2 geschätzt werden. N( , ) Z + · · · + Zn χ -Verteilung n unabhängige 0 1 -verteilte Zufallsvariablen, so besitzt 2 1 eine so genannte 2 Man kann zeigen, dass 2 mit n− S σ 1 2 Jürgen Dippon (ISA) Freiheitsgraden. 2 ∼ χ2n−1 Statistik für Wirtschaftswissenschaftler 13. September 2010 306 / 464 9.5. Intervallschätzung 9. Parameterschätzung χ2n−1, α und χ2n−1, 1−α die 2 2 ( − 1) Freiheitsgraden. Seien mit n α 2 - bzw. Dann gilt: 1 −α= = Also ist P 1 2 2 n−1,1− α2 n (1 − α)-Kondenzintervall der χ2 -Verteilung ≤ χ2n−1,1− α 2 ! ( − 1) 2 ≤ σ2 ≤ χ2n−1, α S n 2 n S 2 S ( − 1) 2 ( − 1) 2 , χ2n−1,1− α χ2n−1, α 2 ein n S −1 χ2n−1, α ≤ 2 σ2 P (χn − )S " (1 − α2 )-Quantile # 2 für die Varianz bei einer normalverteilten Grundgesamtheit. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 307 / 464 9. Parameterschätzung Bei einem dichotomen Merkmal Bin( , p) bei Vorliegen der Stichprobe 1 X 9.5. Intervallschätzung wird die Auftretenswahrscheinlichkeit p = P (X = X , . . . , Xn 1) von unabhängigen 1 -verteilten Zufallsvariablen mittels n p̂ = n X Xi 1 i =1 geschätzt. Da X Bin(n, p) X̄p− E (X̄ ) = qp̂ − p Var (X̄ ) p n p Pn i =1 i ∼ , ist nach dem zentralen Grenzwertsatz (1− ) approximativ N( , 0 1)-verteilt. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 308 / 464 9.5. Intervallschätzung 9. Parameterschätzung Da p p p̂ p̂ − p ≤ z − α ∼ P −z ≤q p̂ −p̂ unbekannt ist, wird durch geschätzt. Dann gilt 1 1− α 2 = P p̂ − z (1 n r 1− α 2 ) 1− α 2 p̂( − p̂) ≤ p ≤ p̂ + z n 1 r 1− α 2 p̂( − p̂) n 1 ! Also ist G G " [ u, o] = ein approximatives p̂ − z r 1− α 2 p̂( − p̂) , p̂ + z n 1 (1 − α)-Kondenzintervall r 1− α 2 p̂( − p̂) n 1 # für die Wahrscheinlichkeit in einer Bernoulli-verteilten Grundgesamtheit. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 p 309 / 464 9. Parameterschätzung 9.5. Intervallschätzung Beispiel: Sonntagsfrage Von n= p̂ = 496 befragte Frauen zeigten Unionsparteien. Also ist p = P (X = 200 . 496 X Pn i =1 i = 200 Bei einer Sicherheitswahrscheinlichkeit von 1 eine Präferenz für die − α = 0.95 erhält man für 1) ein approximatives 95%-Kondenzintervall " p̂ − z r 1− α 2 p̂( − p̂) , p̂ + z n 1 " = r 0.403 − 1.96 0.403 r 1− α 2 · 0.597 496 p̂( − p̂) n # 1 # ,··· + ... = [0.360, 0.446] Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 310 / 464 10. Testen von Hypothesen 9 10 Parameterschätzung Testen von Hypothesen Binomial- und Gauÿ-Test Approximativer Binomialtest Gauÿ-Test Prinzipien des Testens Fehlentscheidungen Zusammenhang zwischen statistischen Tests und Kondenzintervallen Überschreitungswahrscheinlichkeit Gütefunktion 11 Spezielle Tests 12 Lineare Regression 13 Zeitreihen Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 311 / 464 10. Testen von Hypothesen Testen von Hypothesen Neben dem Schätzen von Parametern theoretischer Verteilungen ist es oft von Interesse, Vermutungen über einen Parameter oder eine Verteilung in der Grundgesamtheit zu überprüfen. Die Vermutung wird in Bezug auf die Grundgesamtheit aufgestellt, deren Überprüfung jedoch unter Verwendung einer Stichprobe durchgeführt. Inwieweit der Schluss von der Stichprobe auf die Grundgesamtheit zulässig ist, ist Teil des statistischen Tests. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 312 / 464 10.1. Binomial- und Gauÿ-Test 10. Testen von Hypothesen Binomial- und Gauÿ-Test Beispiel: Eine Klausur besteht aus n= 30 Aufgaben, bei der jeweils eine von zwei Antworten auszuwählen ist. Ein Student beantwortet 19 Fragen korrekt und 11 Fragen falsch. Frage: Hat der Student geraten oder tatsächlich etwas gewusst? Xi = i 1, falls 0, sonst -te Antwort des Studenten richtig X , ..., X P Bin( , p) S = i Xi Bin( , p) p= 30 seien unabhängige 30 Also ist 30 =1 1 1 -verteilte Zufallsvariablen. -verteilt. Wenn der Student nichts weiÿ, ist 1 . 2 Besitzt der Student gewisse Kenntnisse, so ist Jürgen Dippon (ISA) p> Statistik für Wirtschaftswissenschaftler 1 2 13. September 2010 313 / 464 10.1. Binomial- und Gauÿ-Test 10. Testen von Hypothesen Auf Grundlage der Daten Nullhypothese und der S ( = 19) wollen wir uns zwischen der Ho : p = 1 2 Alternativhypothese H :p> 1 1 2 entscheiden. Ist die Prüfgröÿe oder Teststatistik S = Xi 30 X gröÿer als ein kritischer Wert Jürgen Dippon (ISA) c i =1 , entscheiden wir uns für Statistik für Wirtschaftswissenschaftler H 1. 13. September 2010 314 / 464 10.1. Binomial- und Gauÿ-Test 10. Testen von Hypothesen Wie ist der kritische Wert c nun zu wählen? c = ,c = ,c = H 16 c wird so gewählt, dass 17 18, . . .? 0 höchstens mit Wahrscheinlichkeit fälschlicherweise abgelehnt wird: P α = 0.05 S c H P S cH | 0) α = 0.05 > ( >} | {z H0 wird abgelehnt = 1 − ( ≤ | 0) 30−i c i X 30 1 1 =1− 1− 2 2 i =0 i Es ist also die kleinste natürliche Zahl c gesucht, so dass c 30 X 30 1 i =0 Jürgen Dippon (ISA) i 2 > 0.95 Statistik für Wirtschaftswissenschaftler 13. September 2010 315 / 464 10. Testen von Hypothesen 10.1. Binomial- und Gauÿ-Test Bestimmung des kritischen Wertes c mittels R: > qbinom ( 0 . 9 5 , s i z e =30 , prob =0.5) > 19 Damit wählen wir Da S= H dass c= 19 als kritischen Wert. 19, können wir H 0 nicht ablehnen, wenn wir sicherstellen wollen, 0 höchstens mit Wahrscheinlichkeit Niveau, fälschlicherweise abgelehnt wird. Jürgen Dippon (ISA) α = 0.05, Statistik für Wirtschaftswissenschaftler dem sogenannten 13. September 2010 316 / 464 10. Testen von Hypothesen 10.1. Binomial- und Gauÿ-Test Abbildung: Binomialverteilung Erstellung der Graken mittels: plot ( dbinom ( 0 : 3 0 , plot ( pbinom ( 0 : 3 0 , Jürgen Dippon (ISA) s i z e =30 , prob = 0 . 5 ) , t y p e="h" ) ; s i z e =30 , prob = 0 . 5 ) , t y p e=" s " ) ; Statistik für Wirtschaftswissenschaftler 13. September 2010 317 / 464 10. Testen von Hypothesen 10.1. Binomial- und Gauÿ-Test In unserem Beispiel wird {0, 1, . . . , 19} {20, 21, . . . , 30} als Annahmebereich als Ablehnungsbereich bezeichnet. Der so konstruierte statistische Hypothesentest heiÿt Binomialtest. exakter Da der kritische Wert c für groÿe Stichprobenumfänge n aufwändig zu berechnen ist, verwendet man stattdessen den approximativen Binomialtest. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 318 / 464 10.1. Binomial- und Gauÿ-Test 10. Testen von Hypothesen Approximativer Binomialtest Beispiel: statistische Qualitätskontrolle n= Bei der Produktion von Speicherchips entstehen 10% unbrauchbare Chips. Anhang einer Stichprobe mit Umfang 1000 soll überprüft werden, ob der Produktionsprozess sich verschlechter hat, also mehr als 10% Ausschuss entsteht. Wie oben seien und Xi = X , ..., Xn 1 i 1, falls 0, sonst -tes Stichprobenelement Ausschuss ist unabhängige Jürgen Dippon (ISA) Bin( , p) 1 -verteilte Zufallsvariablen. Statistik für Wirtschaftswissenschaftler 13. September 2010 319 / 464 10. Testen von Hypothesen Dann ist 10.1. Binomial- und Gauÿ-Test n X S = Xi ∼ Bin(n, p) i =1 und nach dem zentralen Grenzwertsatz von Moivre-Laplace Z = pnpS −( np− p) 1 ungefähr N( , 0 1)-verteilt Das Testproblem ist: H :p=p 0 0 = 0.1 gegen H :p>p 1 0 = 0.1 Der eigentlich interessierende Sachverhalt wird durch die Alternativhypothese ausgedrückt. Wir lehnen H S E (S ) = np 0 ab, falls S bzw. Z zu groÿ ist. Dabei soll sichergestellt werden, dass die Abweichung von zu 0 bei Vorliegen der Nullhypothese nicht alleine durch den Zufall erklärt werden kann. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 320 / 464 10.1. Binomial- und Gauÿ-Test 10. Testen von Hypothesen Hierbei ist es günstig, den kritischen Wert für Z anstatt für S zu ermitteln: 0.05 Also ist c =z P Z c H) c Z ∼ N( , ) − α) N( , ) = α > ( | {z >} | H0 ablehnen ≈ 1 − Φ( ), da 1−α , das (1 0 0 1 -Quantil der unter H 0 0 1 -Verteilung, als kritischer Wert zu wählen. Daraus ergibt sich der Ablehnungsbereich c = (z H 0 wird also zum Niveau α 1−α , ∞) abgelehnt, falls Z = pnpS −( np− p ) > z 0 0 1 Jürgen Dippon (ISA) 1−α 0 Statistik für Wirtschaftswissenschaftler 13. September 2010 321 / 464 10. Testen von Hypothesen 10.1. Binomial- und Gauÿ-Test Abbildung: Kritischer Bereich Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 322 / 464 10.1. Binomial- und Gauÿ-Test 10. Testen von Hypothesen Für n= 1000, p= 0.1, α = 0.05 wird Z = S √− H 100 90 S> d.h. Jürgen Dippon (ISA) 0 abgelehnt, falls > 1.64 115.56 Statistik für Wirtschaftswissenschaftler 13. September 2010 323 / 464 10. Testen von Hypothesen 10.1. Binomial- und Gauÿ-Test Soll überprüft werden, ob sich der Produktionsprozess hinsichtlich der Ergebnisqualität verbessert hat, ist das Testproblem: H :p=p 0 0 H :p<p gegen 1 0 zu betrachten. Der dazugehörige kritische Bereich lautet c = (−∞, −z 1−α ) = (−∞, z) α Soll überprüft werden, ob sich der Produktionsprozess hinsichtlich der Ergebnisqualität verändert hat, ist das Testproblem: H :p=p 0 0 H : p 6= p gegen 1 0 zu betrachten. Der dazugehörige kritische Bereich lautet c = (−∞, z Jürgen Dippon (ISA) α/2 ) z ∪( 1−α/2 , ∞) Statistik für Wirtschaftswissenschaftler 13. September 2010 324 / 464 10. Testen von Hypothesen 10.1. Binomial- und Gauÿ-Test Abbildung: Beidseitiger kritischer Bereich Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 325 / 464 10. Testen von Hypothesen 10.1. Binomial- und Gauÿ-Test Zusammenfassung: Approximativer Binomialtest Bin(n, p) Gegeben seien folgende Testprobleme über den Parameter -Verteilung: a b c ( ) ( ) ( ) H :p=p H :p=p H :p=p 0 0 gegen 0 0 gegen 0 gegen 0 p in einer H : p 6= p H :p<p H :p>p 1 0 1 0 1 0 Basierend auf der Prüfgröÿe Z = pnpS −( np− p ) N( , ) H (a), |z | > z (b), z < −z (c ), z >z 0 welche unter Niveau α H 0 1 0 näherungsweise entscheidet man sich für 0 1 -verteilt ist, und dem vorgegebenen 1 im Testproblem falls 1−α/2 falls 1−α falls Jürgen Dippon (ISA) 0 1−α Statistik für Wirtschaftswissenschaftler 13. September 2010 326 / 464 10. Testen von Hypothesen 10.1. Binomial- und Gauÿ-Test Gauÿ-Test Beispiel: Kontrollkarten X [cm] N (µ, σ ) Es sei bekannt, dass ein Produktionsprozess Bleistifte produziert, deren Längen µ = 17 approximativ 2 cm ] -verteilt sind mit Erwartungswert und bekannter Varianz σ 2 = 2.25[ 2 EX = µ Um zu überprüfen, ob die produzierten Bleistifte dem Sollwert (mit erlaubter zufälliger Abweichung) entsprechen, d.h. betrachtet man das Testproblem H 0 : µ = µ0 = 17 X , ..., Xn ∼ N (µ, σ ) gegen H 1 0 = 17, : µ 6= 17 X̄ Dazu entnimmt man der laufenden Produktion Bleistifte mit Längen 2 1 und untersucht die Prüfgröÿe standardisierte Prüfgröÿe oder die Z = X̄ −σ µ √n 0 welche unter H N( , 0 Jürgen Dippon (ISA) 0 1)-verteilt ist. Statistik für Wirtschaftswissenschaftler 13. September 2010 327 / 464 10.1. Binomial- und Gauÿ-Test 10. Testen von Hypothesen H 0 wird dann zum Niveau α abgelehnt, falls Z z | |> Zahlenbeispiel: 1−α/2 n = , x̄ = . , α = . z = x̄ −σ µ √n = . .− z =. H α= . 5 18 1 0 01 0 18 1 17 √ 1 5 Da z z | |≤ 1−α/2 1−α/2 kann 0 zum Niveau 5 = 1.64 2 5758 0 01 nicht abgelehnt werden. Ein Eingri in den Produktionsprozess ist also nicht nötig. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 328 / 464 10. Testen von Hypothesen x̄ 10.1. Binomial- und Gauÿ-Test In der statistischen Qualitätskontrolle werden für jede Stichprobe die Mittelwerte über der Stichprobennummer in einer Grak eingetragen und mit den Kontrollgrenzen µ0 − z 1−α/2 verglichen. Bendet sich x̄ σ ·√ n und µ0 + z 1−α/2 σ ·√ n auÿerhalb dieses dadurch denierten horizontalen Streifens, gilt der Prozess als statistisch auÿer Kontrolle. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 329 / 464 10. Testen von Hypothesen 10.1. Binomial- und Gauÿ-Test Zusammenfassung: Gauÿ-Test X , ...Xn N (µ, σ ) σ n n≥ E (Xi ) = µ, Var (Xi ) = σ Unabhängige Zufallsvariablen bekannter Varianz 2 oder, falls a b c ( ) ( ) ( ) 2 H H H 0 (d.h. 0 σ : µ = µ0 0 : µ = µ0 0 : µ = µ0 0 H µ=µ Z = X̄ − µ √n N ( , Unter 30) mit beliebiger . Betrachte folgende gegen gegen gegen H H H : µ 6= µ0 1 : µ < µ0 1 : µ > µ0 1 0 ) ist N( , H 0 1)-verteilt bzw. näherungsweise Basierend auf der Prüfgröÿe a b c Z ( ), ( ), ( ), Jürgen Dippon (ISA) -verteilt mit groÿ (Faustregel: stetiger Verteilung, Testprobleme: 2 jeweils 1 fällt die Entscheidung für falls falls falls z z z z z z 0 1)-verteilt 1 im Testproblem | | > 1−α/2 < − 1−α > 1−α Statistik für Wirtschaftswissenschaftler 13. September 2010 330 / 464 10. Testen von Hypothesen 10.2. Prinzipien des Testens Prinzipien des Testens 1. Schritt: Quantizierung der Fragestellung 2. Schritt: Formulierung der Modellannahmen 3. Schritt: Festlegung der Null- und Alternativhypothese 4. Schritt: Wahl des Signikanzniveaus H H 5. Schritt: Wahl einer Prüfgröÿe (Teststatistik), die in der Lage ist, zwischen 0 und 1 zu dierenzieren. Bestimmung der Verteilung der Prüfgröÿe unter der Nullhypothese. Konstruktion des Ablehnungsbereiches. 6. Schritt: Berechnung des Wertes der Prüfgröÿe für die konkrete Stichprobe 7. Schritt: Testentscheidung Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 331 / 464 10. Testen von Hypothesen 10.2. Prinzipien des Testens Falls Abweichungen nach oben und unten interessieren, wie im Fall (a) im zweiseitig, falls nur Abweichungen in Gauÿ-Test, heiÿt das Testproblem eine Richtung interessieren, wie im Fall (b) und (c) im Gauÿ-Test, heiÿt das Testproblem H einseitig. Besteht die Hypothese bzw. 1 H 0 oder H 1 nur aus einem Punkt, nennt man einfach, sonst zusammengesetzt X Xn H 0 Tests, die keine genaueren Annahmen über die Verteilung der Zufallsvariablen 1 , ... machen, heiÿen nichtparametrisch. Werden Annahmen über den Verteilungstyp gemacht, so heiÿen die Tests parametrisch. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 332 / 464 10.2. Prinzipien des Testens 10. Testen von Hypothesen Fehlentscheidungen Bei einem statistischen Testproblem H 0 gegen statistischen Test spricht man von einem Fehler 1. Art, wenn Fehler 2. Art, wenn H 1 und einem geeigneten H H 0 verworfen wird, obwohl H 0 wahr ist 0 beibehalten wird, obwohl H 1 wahr ist Es sind dehalb folgende Ausgänge bei einem statistischen Test denkbar: H H Entscheidung für 0 H 0 wahr H Fehler 1. Art (α-Fehler) falsch 1 wahr Jürgen Dippon (ISA) richtig 1 falsch Fehler 2. Art richtig (β -Fehler) Statistik für Wirtschaftswissenschaftler 13. September 2010 333 / 464 10. Testen von Hypothesen 10.2. Prinzipien des Testens Test zum Signikanzniveau α (wobei Signikanztest, falls: Ein statistischer Test heiÿt 0 < α < 1) oder P (H 1 annehmen H | 0 wahr P( d.h. Fehler 1. Art) Typische Werte für das Signikanzniveau α )≤α ≤α sind 0.1, 0.05, 0.01. Interpretation: Es werden 100 Stichproben vom Umfang gelte die Nullhypothese. Bei 100 Tests zum Niveau α n gezogen und es wird die Nullhypothese dann im Mittel höchstens in 5% der Fälle (fälschlicherweise) abgelehnt werden. Im Falle einer Ablehnung der Nullhypothese sagt man, dass das Ergebnis statistisch signikant zum Niveau α sei. Die Wahrscheinlichkeit für einen Fehler 2. Art kann man meist nicht kontrollieren. Diese Ungleichbehandlung der Fehler 1. und 2. Art ist der Grund dafür, dass die zu sichernde Behauptung als Alternativhypothese formuliert wird. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 334 / 464 10. Testen von Hypothesen 10.2. Prinzipien des Testens Zusammenhang zwischen statistischen Tests und Kondenzintervallen Beispiel Gauÿ-Test Verwerfe Behalte H H z z 0 , falls x̄ |x̄ Damit ist H n z n z z x̄ z √ 0 | | = x̄ −µ σ > 1−α/2 − µ0 √ ≤ 1−α/2 | | = σ | {z } ⇔ − µ0 | ≤ 1−α/2 · √σn h i ⇔ µ0 ∈ − 1−α/2 · √σn , + 1−α/2 · √σn 0 , falls x̄ z 0 genau dann beizubehalten, wenn (1 − α)-Kondenzintervall für µ µ0 im liegt. Allgemein: Ein (1 − α)-Kondenzintervall entspricht dem Annahmebereich des zugehörigen 2-seitigen Signikanztests. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 335 / 464 10. Testen von Hypothesen 10.2. Prinzipien des Testens Überschreitungswahrscheinlichkeit p-Wert oder die Überschreitungswahrscheinlichkeit ist deniert als Der die Wahrscheinlichkeit den beobachteten Prüfgröÿenwert oder einen in Richtung der Alternative extremeren Wert zu beobachten: H Ist der p-Wert kleiner oder gleich dem vorgegebenen Signikanzniveau, wird 0 verworfen, andernfalls beibehalten. Fortsetzung des Beispiels zum Gauÿ-Test: z= Dort wurde die Teststatistik Wert z | | betrachtet, welche für die Stichprobe den 1.64 lieferte. Der p-Wert ist jetzt gegeben durch p = P (|Z | ≥ Jürgen Dippon (ISA) H )= 1, 64| 0 2(1 − Φ(1.64)) ≈ 0.1 Statistik für Wirtschaftswissenschaftler 13. September 2010 336 / 464 10. Testen von Hypothesen 10.2. Prinzipien des Testens Abbildung: P-Wert (Inhalt der hellgrauen Fläche beträgt α − p . Inhalt der dunkleren Fläche ist p ) Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 337 / 464 10. Testen von Hypothesen 10.2. Prinzipien des Testens Gütefunktion Für vorgegebenes Signikanzniveau die α und festen Stichprobenumfang n gibt Gütefunktion g die Wahrscheinlichkeit für einen statistischen Test an, die Nullhypothese zu verwerfen: g (µ) = P (H 0 verwerfen Ist Ist µ∈ µ∈ H H 0 , so ist g (µ) ≤ α − g (µ) 1 , so ist 1 Jürgen Dippon (ISA) | µ |{z} ) wahrer Parameter die Wahrscheinlichkeit für den Fehler 2. Art Statistik für Wirtschaftswissenschaftler 13. September 2010 338 / 464 10. Testen von Hypothesen 10.2. Prinzipien des Testens Abbildung: Verlauf der idealen Gütefunktion, die aber praktisch nicht möglich ist. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 339 / 464 10. Testen von Hypothesen 10.2. Prinzipien des Testens Abbildung: Verlauf der Gütefunktion beim einseitigen Gauÿ-Test. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 340 / 464 10. Testen von Hypothesen 10.2. Prinzipien des Testens Berechnung der Gütefunktion für den einseitigen Gauÿ-Test: g (µ) = = = = P (H | µ) X̄ −µ √ P σ n > z µ X̄ −µ+µ−µ √ µ n >z P σ µ − µ √ X̄ − µ√ P σ n>z − σ nµ 0 verworfen 0 0 {z ∼N (0,1) Jürgen Dippon (ISA) 1−α 0 1−α | = 1−α 1 −Φ z } µ − µ0 √ 1−α − σ n Statistik für Wirtschaftswissenschaftler 13. September 2010 341 / 464 10. Testen von Hypothesen 10.2. Prinzipien des Testens Abbildung: Verlauf der Gütefunktion beim zweiseitigen Gauÿ-Test. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 342 / 464 10. Testen von Hypothesen 10.2. Prinzipien des Testens Eigenschaften der Gütefunktionen eines statistischen Tests Für Werte aus Für Werte aus H H n 1 heiÿt die Gütefunktion Trennschärfe oder Macht 0 ist die Gütefunktion kleiner oder gleich Für wachsendes α wird die Macht eines Tests gröÿer, d.h. die Gütefunktion wird steiler Für wachsendes α wird die Macht eines Tests gröÿer Für einen wachsenden Abstand zwischen Werten aus die Macht eines Tests gröÿer. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler H 1 und H 13. September 2010 0 wird 343 / 464 11. Spezielle Tests 9 Parameterschätzung 10 Testen von Hypothesen 11 Spezielle Tests Überblick Einstichprobentests Zweistichprobentests Zusammenhangsanalyse 12 Lineare Regression 13 Zeitreihen Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 344 / 464 11. Spezielle Tests 11.1. Überblick Überblick Statistische Tests gibt es wie Sand am Meer. Im Folgenden beschränken wir uns auf einige Testverfahren zu ausgewählten Standardproblemen. Einteilung der nachfolgenden Testverfahren 1 Einstichprobenfall: Untersuchung einer Verteilung eines H H Zweistichprobleme H H eindimensionalen Merkmals, z.B. 0 : Die zu erwartende Quadratmiete in einem bestimmten 2 Wohnviertel beträgt 8 Euro/m . 0 : Die Nettomiete ist normalverteilt. 2 A B : Vergleich von Parametern aus zwei Populationen. 0 : Die zu erwartende Nettomiete in den Wohnvierteln identisch. und ist 0 : Das zu erwartende Einkommen männlicher und weiblicher Arbeitnehmer (in vergleichbarer Position einer Branche) ist gleich. 3 Zusammenhangsanalyse, z.B. H H 0 : Die Korrelation zwischen Mietpreis und Quadratzahl beträgt 0.8. 0 : Geschlecht und Parteipräferenz sind unabhängig. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 345 / 464 11. Spezielle Tests 11.1. Überblick Konstruktion von Tests θ H sei ein interessierender Parameter. Es soll ein Test zu Hypothesen der Form 0: θ = θ0 konstruiert werden. Tests basieren häug auf Schätzern für Parameter. T Die Schätzer werden unter Verwendung des Nullhypothesenwertes T zu einer Teststatistik Verteilung von T standardisiert bzw. transformiert, so dass die nicht mehr von unbekannten Gröÿen abhängt. wird gewöhnlich so konstruiert, dass eher unter der Alternative annimmt. T θ0 T groÿe bzw. kleine Werte H Der Ablehnungsbereich des Tests wird unter Verwendung von Quantilen von unter 0 so festgelegt, dass die Nullhypothese für groÿe bzw. kleine Werte abgelehnt wird. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 346 / 464 11. Spezielle Tests 11.2. Einstichprobentests Einstichprobentests Beispiel: Mietspiegel. A Die Quadratmetermiete für Wohnungen in einer Stadt n= 2 unter 50 m , die nach 1983 gebaut wurden, soll untersucht werden. Eine Teilstichprobe von 11 Wohnungen ergab In der Stadt B i xi i xi B 1 2 3 4 5 6 13.22 6.81 10.22 14.03 8.04 10.16 7 8 9 10 11 9.43 13.07 13.63 5.05 11.63 werden, ob der Quadratmeterpreis in Stadt Stadt A 2 liegt der Durchschnittswert bei 8 Euro/m . Es soll überprüft . signikant gröÿer ist als in Die Quadratmetermieten werden als normalverteilt angesehen. Der Erwartungswert µ Jürgen Dippon (ISA) ist der interessierende Parameter, Statistik für Wirtschaftswissenschaftler σ sei nicht bekannt. 13. September 2010 347 / 464 11.2. Einstichprobentests 11. Spezielle Tests Hypothesen : H :µ≤ =µ H :µ> =µ Ansatz : µ X n ∼ N µ, σn T := √n X nS−n µ µ=µ = t t Xn − µ ≈ µ − µ n Die Forschungshypothesen ordnen wir der Alternativen zu. 8 0 0 gegen 8 1 Schätzen von 0 mit 2 0 und wenn 0 Mit 8 ist, wobei 10 die 0 (für groÿe 0 = √ 11 Xn − Sn 8 ∼ t 10 t = n −1 -Verteilung mit 10 Freiheitsgraden ist. ) erwarten wir groÿe Werte der Teststatistik unter der Alternative und kleine Werte unter der Nullhypothese. Für µ = µ0 = 8 gilt P (T > tn Wenn wir −1,1−α ) F t = 1 − T ( n−1,1−α ) = 1 − (1 − α) = α H 0 ablehnen, wenn erhalten wir einen Test zum Niveau t > tn −1,1−α α. Allgemein lassen sich folgende Tests konstruieren: Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 348 / 464 11.2. Einstichprobentests 11. Spezielle Tests Einstichproben-t-Test X , . . . , Xn H µ=µ H µ≥µ H µ≤µ Seien 1 unabhängig N (µ, σ ) 2 -verteilte Zufallsvariablen. Wir betrachten folgende Testprobleme über den Parameter 1 2 3 0: 0 gegen 0: 0 gegen 0: 0 gegen H H H 1: µ 6= µ0 , 1: µ < µ0 , 1: µ > µ0 . µ: Basierend auf der Teststatistik T = XpnS−/µn 0 2 n = √ n X nS−n µ 0 (Beachte: und dem vorgegebenen Signikanzniveau α T ∼ tn −1 , falls µ = µ0 ) wird die Nullhypothese abgelehnt, 1 falls 2 falls 3 falls T t T t T t | | > n−1,1−α/2 , < − n−1,1−α , > n−1,1−α . Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 349 / 464 Es wird ein Hypothese: 11.2. Einstichprobentests 11. Spezielle Tests t α = 0.05 -Test zum Signikanzniveau H :µ≤ 0 8 = µ0 gegen durchgeführt. H :µ> 1 8. T = XpnS−/µn Teststatistik: 0 2 Berechnung des Wertes der Teststatistik: n x̄ = n X xi = 1 i =1 n X s = n− 2 i =1 n X 1 1 xi 2 1 11 (13.22 + 6.81 + . . . + 11.63) = 10.4809 , = (13.222 + . . . + 11.632 ) = 1296.587 , xi − n · x̄ = ( t = √n x̄ √−sµ = √ ! 2 2 i =1 0 2 Jürgen Dippon (ISA) 1 10 1296.5871 11 10.4809 √ − 11 · 10.48092 ) = 8.8245 . −8 8.8245 Statistik für Wirtschaftswissenschaftler = 2.77 13. September 2010 350 / 464 11. Spezielle Tests 11.2. Einstichprobentests α = 0.05 gleich = 1 . 8125. −1,1−α 10,0.95 Testentscheidung: Da = 2.77 > 1.8125 ist, wird die tn t Der kritische Wert ist zum Niveau = abgelehnt. t Nullhypothese Wenn die Stichprobe groÿ genug ist, kann man auf die Normalverteilungsvoraussetzungen auch verzichten. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 351 / 464 11. Spezielle Tests 11.2. Einstichprobentests Beispiel: Getreideockenabfüllung. Ein Hersteller von Zerealien möchte die Qualität seiner Abfüllmaschine testen. Die Maschine soll 300 g pro Packung abfüllen. Der Hersteller will feststellen, ob es systematische Abweichungen vom Normwert gibt. Dazu werden 100 Packungen zufällig der Produktion entnommen und gewogen. g Es wird ein mittleres Gewicht von 296 g festgestellt und eine 2 Stichprobenvarianz von 12.5 Signikanzniveau α = 0.05 Normwert ist. Die Abfüllgewichte . Stellen Sie mit einem Test zum fest, ob das eine signikante Abweichung vom X , . . . , Xn 1 2 seien u.i.v., aber nicht notwendigerweise normalverteilt. Dann gilt nach zentralem Grenzwertsatz X −µ pn 2 n/ Jürgen Dippon (ISA) S n ist asymptotisch N( , 0 1)-verteilt. Statistik für Wirtschaftswissenschaftler 13. September 2010 352 / 464 11. Spezielle Tests 11.2. Einstichprobentests Approximativer Gauÿ-Test (beliebige Verteilung) X , . . . , Xn H µ=µ H µ≥µ H µ≤µ Seien 1 unabhängig und identisch verteilt mit n> Wir betrachten folgende Testprobleme über den Parameter 1 2 3 0: 0 gegen 0: 0 gegen 0: 0 gegen H H H 1: µ 6= µ0 , 1: µ < µ0 , 1: µ > µ0 . 30. µ: Basierend auf der Teststatistik T = XpnS−/µn 0 (Beachte: 2 n T und dem vorgegebenen Niveau ist asymptotisch α N( , fällt die Entscheidung für Testproblem, 1 falls 2 falls 3 falls T z T < −z T >z | |> 0 1) verteilt, falls µ = µ0 ) H 1 im 1−α/2 1−α 1−α Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 353 / 464 11. Spezielle Tests 11.2. Einstichprobentests Der Test wird genauso durchgeführt wie ein Gauÿ-Test, aber es ist nur ein nährungsweise α, µ = µ0 . approximativer Test zum Niveau gleich α für d.h. der Fehler 1. Art ist nur Beispiel (fortgesetzt): Getreideockenabfüllung. Hypothesen: H :µ= =µ t = px̄ −s µ/n = p n 300 0 Teststatistik: 0 gegen 0 2 Ablehnung der Nullhypothese: Entscheidung: Da t 296 12.52 /100 z 0 ablehnen, wenn | | = 3.2 > 2.57 1 − 300 α = 0.01, H H : µ 6= 1−α/2 300 . = −3.2 = t z 0.995 = 2.57. | | > 2.57 ist, ist die Nullhypothese zum Signikanzniveau 0.01 abzulehnen. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 354 / 464 11. Spezielle Tests 11.2. Einstichprobentests χ2 -Test für kategoriale Merkmale Merkmale sind die Eigenschaften, für die wie uns bei Untersuchungsobjekten interessieren. Kategoriale Merkmale nehmen nur endliche viele verschiedene Werte (Ausprägungen) an und werden mit diskreten Zufallsvariablen beschrieben. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 355 / 464 11. Spezielle Tests 11.2. Einstichprobentests Beispiel: Parteipräferenz. B C n= In einem Land gingen bei der letzten Wahl 40% der Stimmen an Partei 35% an Partei und 25% an Partei . A , Eine Woche vor der aktuell anstehenden Wahl ergab eine A B C Stichprobenbefragung vom Umfang 42% für Partei 38% für Partei 20% für Partei , 500 folgende Verteilung: und . Hat sich die Wahlpräferenz gegenüber der letzten Wahl (signikant) Aufgabe: verändert? Vergleiche zweier diskreter Verteilungen, nämlich der Stimmenverteilung bei der letzten Wahl mit der Verteilung, die sich aus der Stichprobenbefragung ergibt. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 356 / 464 11.2. Einstichprobentests 11. Spezielle Tests Wahlergebnis im Jahr 2000 Partei πi i 1 2 3 0.40 0.35 0.25 Umfrage im Jahr 2004 Partei fi i 1 2 3 0.42 0.38 0.20 Die Nullhypothese ist hierbei, dass sich die Verteilung der Stimmen im fi Vergleich zur Vorwahl nicht verändert hat. Dann sollten unter der Nullhypothese die relativen Häugkeiten Wahrscheinlichkeiten πi übereinstimmen. relativ gut mit den Geben die beobachteten Abweichungen zwischen X ... fi und πi Anlass, i= anzunehmen, dass sich die Verteilung der Wählergunst verschoben hat? diskrete Zufallsvariable, die gewählte Partei angibt ( X , . . . , Xn Hypothese: H :p u.i.v wie 1 0 1 = π1 Jürgen Dippon (ISA) X P (X = i ) = pi , i = 1, 2, 3), 1, 2, 3 . . und p 2 = π2 und p 3 = π3 gegen Statistik für Wirtschaftswissenschaftler H :H 1 0 ist falsch. 13. September 2010 357 / 464 11.2. Einstichprobentests 11. Spezielle Tests Ni sei die Anzahl der Wähler der Stichprobe, die sich für Partei N entschieden haben. p p̂i = Ni /n k ⇒ i ∼ Bin(500, i ) Dann sind die relativen Häugkeiten geeignete Schätzer für Es kann gezeigt werden (ohne Herleitung): χ2 = falls H N n n n N n n (p̂i −πiπi ) 3 3 3 X X X ( i − πi )2 ( i / − πi )2 = = πi πi i =1 i =1 i =1 0 wahr ist. Es gilt: Groÿe Werte von χ2 πi und den relativen Häugkeiten Bei groÿer Übereinstimmung sind die Werte von χ2 Statistik für Wirtschaftswissenschaftler dagegen klein. 13. September 2010 . ∼ χ22 , treten auf bei groÿen Abweichungen zwischen den Wahrscheinlichkeiten Jürgen Dippon (ISA) 2 pi Ni /n . 358 / 464 11.2. Einstichprobentests 11. Spezielle Tests Anmerkung: Wegen N +N +N 1 2 3 = 500 Falls sie unabhängig wären, hätte unter 3 =1 Jürgen Dippon (ISA) Ni nicht unabhängig! 0 gegolten: N n N( , ) n X (Ni − nπi ) = χ n πi ( − πi ) i − πi p i πi (1 − πi ) ⇒ χ2 H sind die asymp. 0 1 -verteilt 2 1 asymp. Statistik für Wirtschaftswissenschaftler 3 3 -verteilt. 13. September 2010 359 / 464 11.2. Einstichprobentests 11. Spezielle Tests χ2 -Anpassungstest Seien X , . . . , Xn 1 u.i.v. wie X , wobei X diskret mit Träger k T = {1, . . . , }. Wir betrachten folgendes Testproblem H P (X = i ) = πi , i = H P (X = i ) 6= πi 0: gegen (In 1: H χ n πi ≥ 1, . . . , k , für mindestens ein H n πi ≥ i ∈T . 0 kann implizit eine hypothetische Verteilung enthalten sein!) 2 2 Beachte: −1 falls 0 wahr ist. Die Approximation ist anwendbar, falls ∼ χk 1 für alle , i und 5 für mindestens 80% des Trägers ist. Basierend auf der Teststatistik n n n k X ( i − πi )2 χ = πi i =1 2 und dem vorgegebenen Niveau wobei qk α fällt die Entscheidung für q H 1 , falls χ2 > k −1,1−α , −1,1−α das (1 Jürgen Dippon (ISA) − α)-Quantil der χ2k −1 -Verteilung Statistik für Wirtschaftswissenschaftler bezeichnet. 13. September 2010 360 / 464 11. Spezielle Tests 11.2. Einstichprobentests Beispiel: Parteipräferenz. X ,...,X H P (X = i ) = πi i X (Ni − nπi ) χ = n πi i α= . c =q = . H P (X = i ) 6= πi 500 unabhängig und identisch verteilt wie X 1 Testproblem: 0: ein gegen 3 Teststatistik: 2 2 1: ∼ χ22 , =1 Signikanzniveau: 2,0.95 χ2 > 5.99, 5 99 verwerfe Wert der Teststatistik χ2 = ⇒ H (210 − 200)2 200 H 0 wahr ist. 0 05 Kritischer Wert: Testprozedur: Falls falls für mindestens + (190 − 175)2 175 H 0 , sonst nicht. + (100 − 125)2 125 = 6.79 > 5.99 0 wird verworfen, d.h., das Wahlverhalten hat sich signikant verändert. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 361 / 464 11.3. Zweistichprobentests 11. Spezielle Tests Zweistichprobentests Beispiel: Autopreise. US-Behörden haben japanischen Autoherstellern vorgeworfen, ihre Autos in Japan teurer zu verkaufen als in den USA und auf diese Weise die x ,...,x US-Verkäufe zu subventionieren. Ein Ökonom hat die Verkaufspreise (in Tausend US-$) von vergleichbaren Autos ausgewertet. y ,...,y 1 50 bezeichnen die Verkaufspreise an 50 Standorten aus den USA und 1 30 die Verkaufspreise an 30 Standorten in Japan. Dann ergaben sich folgende Werte n x̄ = n X xi = 16.596, ȳ = m yi = 17.250, 1 1 i =1 m X i =1 sX = n − 2 n X 1 1 sY = m − 2 1 1 x x̄ s ( i − )2 , X = i =1 m X i =1 y ȳ s q ( i − )2 , Y = sX = 2 1.981 sY = q 2 1.865 Unterschiede in den Mittelwerten sind festzustellen. Können diese Unterschiede auch zufällig zustande gekommen sein oder sprechen sie für niedrigere Verkaufspreise in den USA? Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 362 / 464 11. Spezielle Tests 11.3. Zweistichprobentests Statistisches Modell: X Y E (X ) = µX E (Y ) = µY n= x , . . . , xn X , . . . , Xn y , . . . , ym . . . Verkaufspreis in den USA, . . . Verkaufspreis in Japan. Zu vergleichen sind . . . Durchschnittspreis in den USA und . . . Durchschnittspreis in Japan. Die 50 Beobachtungen Zufallsvariablen 1 1 m= zu den USA-Preisen werden mit beschrieben, die zu den Japan-Preisen werden mit Zufallszahlen 1 beschrieben. X , . . . , Xn ∼ N (µX , σX ) Y , . . . , Ym ∼ N (µY , σY ) X , . . . , Xn, Y , . . . , Ym X , . . . , Xn Y , . . . , Ym Annahmen bzgl. der Verteilung der 2 1 Xi , Yj Y , . . . , Ym 30 Beobachtungen 1 : 2 1 1 stochastisch unabhängig. 1 Da die 1 man von einem bzw. 1 unterschiedlich verteilt sind, spricht Zweistichprobenproblem. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 363 / 464 11. Spezielle Tests 11.3. Zweistichprobentests Ziel der Untersuchung: Vergleich der Erwartungswerte. Ist ∆ = µX − µY gleich Null, gröÿer oder kleiner Null oder nimmt die Dierenz einen bestimmten Wert an? Schätzen von X̄ Ȳ ˆ = E (X̄n − Ȳm ) = µX − µY E (∆) ˆ = Var (X̄n − Ȳm ) = σX + σY Var (∆) n m ˆ = n − m. ∆: ∆ Für den Schätzer gilt: 2 2 Der Schätzer ist als Linearkombination von unabhängigen normalverteilten Zufallsvariablen wieder normalverteilt. X̄ Ȳ N µX − µY , n + m X̄n − Ȳqm − (µX − µY ) ∼ N ( , ) ⇒Z = ˆ = n− m∼ ⇒∆ 2 σX 2 σY n + m σX2 σY2 0 1 (Standardisierung) Ausgehend von dieser Verteilungsaussage lassen sich Tests konstruieren. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 364 / 464 11. Spezielle Tests 11.3. Zweistichprobentests Einige Vorüberlegungen: Von Interesse: Z.B.: Falls δ0 = 0 µX − µY = δ0 ? (sind Durschnittspreise gleich?) µX − µY = δ0 , gilt: Z = X̄qn −XȲm −Yδ ∼ N ( , 0 σ2 σ2 0 1) n + m Es gilt: Groÿe bzw. kleine Werte von nahe 0 nicht. Z sprechen gegen µX − µY = δ0 , Werte Wie im Einstichprobenfall können analog einseitige Testprobleme der Form µX − µY ≥ δ0 bzw. Jürgen Dippon (ISA) µX − µY ≤ δ0 behandelt werden. Statistik für Wirtschaftswissenschaftler 13. September 2010 365 / 464 11.3. Zweistichprobentests 11. Spezielle Tests Zweistichproben-Gauÿ-Test (bekannte Varianz) X , . . . , Xn N (µY , σY ) X , . . . , Xn H : µX − µY = δ H : µX − µY ≥ δ H : µX − µY ≤ δ Seien N (µX , σX ) Y , . . . , Ym Y , . . . , Ym ∆ = µX − µY H : µX − µY 6= δ H : µX − µY < δ H : µX − µY > δ Z = √X̄nX Ȳn m Y m H 2 unabhängig 1 2 unabhängig Auÿerdem seien 1 -verteilt und 1 -verteilt. , unabhängig. 1 Wir betrachten folgende Testprobleme über den Parameter 1 2 3 0 0 gegen 1 0, 0 0 gegen 1 0, 0 0 gegen 1 Basierend auf der Teststatistik Niveau α 1 falls 2 falls 3 falls fällt die Entscheidung für z z z < −z z >z | |> : 0. − −δ0 σ 2 / +σ 2 / und dem vorgegebenen 1 im Testproblem, 1−α/2 , 1−α , 1−α . Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 366 / 464 11.3. Zweistichprobentests 11. Spezielle Tests Problem: σX2 und σY2 in der Regel unbekannt 1. Lösungsansatz: Approximatives Vorgehen bei groÿen Stichproben Angenommen n, m > 30, falls µX − µY = δ0 , T = X̄qn −SXȲm −SYδ 2 asymptotisch 0 2 n + m N( , 0 1)-verteilt, wobei SX = n − 2 dann ist n X 1 1 Jürgen Dippon (ISA) i =1 X X̄ 2 ( i − n) und SY = m − 2 m X 1 Statistik für Wirtschaftswissenschaftler 1 i =1 Y Ȳ ( i − m )2 13. September 2010 367 / 464 11.3. Zweistichprobentests 11. Spezielle Tests 2. Lösungsansatz: Unbekannte, aber gleiche Varianzen. Zusätzliche Annahme: σX2 = σY2 , dann ist T = X̄qn − Ȳm − δ ∼ tn ( n + m )SP 0 1 falls µX − µY = δ0 , 1 2 +m −2 wobei Sp = n + m − (n − )SX + (m − )SY 2 1 2 1 2 1 2 (gepoolte Schätzung der Varianz) Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 368 / 464 11. Spezielle Tests 11.3. Zweistichprobentests Approximativer Zweistichproben-Gauÿ-Test (beliebige Varianz) Seien X , . . . , Xn X Y , . . . , Ym X , . . . , Xn Y , . . . , Ym u.i.v. wie 1 Auÿerdem seien und , 1 1 u.i.v. wie Y n, m > . unabhängig und 1 Die zu überprüfenden Hypothesen seien wie beim 30. Zweistichproben-Gauÿ-Test bzw. Zweistichproben-t-Test. Basierend auf der Teststatistik Z = qX̄n − Ȳm − δ σX /n + σY /m 0 2 2 bzw. Testproblem, 1 falls 2 falls 3 falls z z z z z z 2 0 2 n + m (bekannte Varianzen) Und dem vorgegebenen Niveau T = X̄qn −SXȲm −SYδ (unbekannte Varianzen) α fällt die Entscheidung für t z t z t z H 1 im | | > 1−α/2 bzw. | | > 1−α/2 , < − 1−α bzw. < − 1−α , > 1−α bzw. > 1−α . Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 369 / 464 11.3. Zweistichprobentests 11. Spezielle Tests Zweistichproben-t-Test, unbekannte aber gleiche Varianzen Annahmen und Hypothesen im Fall bekannter Varianzen mit der zusätzlichen Annahme σX2 = σY2 . Basierend auf der Teststatistik T = X̄qn − Ȳm − δ ( n + m )SP n Sp = n + m − X(Xi − X̄n) 0 1 1 wobei 2 1 2 2 2 = 1 n+m− 2 i =1 n S 2 α i =1 1 falls 2 falls 3 falls t t t t t t 2 fällt die Entscheidung für Testproblem, 1 Y Ȳ ! 2 ( i − m) m − )SY ( − 1) X + ( und dem vorgegebenen Niveau + m X H 1 im | | > n+m−2,1−α/2 , < − n+m−2,1−α , > n+m−2,1−α . Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 370 / 464 Falls n, m > 11. Spezielle Tests t 11.3. Zweistichprobentests 30, kann dieser Test auch für beliebige Verteilungen verwendet werden. Man ersetze dafür die -Quantile durch Normalverteilungsquantile. Beispiel: Autopreise Wir gehen davon aus, die Daten sind näherungsweise normalverteilt mit X , . . . , Xn ∼ N (µX , σX ) Y , . . . , Ym ∼ N (µY , σY ) X , . . . , Xn Y , . . . , Ym H : µX − µY ≥ H : µX − µY < gleichen Varianzen (die entsprechenden Schätzer sind nahezu gleich groÿ). 1 2 st.u. 1 , Hypothesen: , 2 st.u. 1 , st.u. 1 0 gegen 0 0 1 Teststatistik sp = n + m − (n − )sX + (m − )sY 1 2 2 = Jürgen Dippon (ISA) 49 1 2 1 2 · 1.9812 + 29 · 1.8652 = 3.7585 49 + 29 Statistik für Wirtschaftswissenschaftler 13. September 2010 371 / 464 11. Spezielle Tests t = q x̄ − ȳ 1 s 1 16.596 2 (n + m) P Signikanzniveau: Kritischer Wert: =q 3.7585 − 17.250 ·( 1 50 + 1 30 = −1.4607 ) α = 0.05 t − Testprozedur: Falls H 11.3. Zweistichprobentests 78,0.95 z ≈− t<− . 0.95 = −1.64 1 64, verwerfe H 0 , sonst nicht. 0 wird nicht verworfen, d.h. ein signikanter Preisunterschied bei den Autopreisen ist nicht nachweisbar. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 372 / 464 11. Spezielle Tests 11.3. Zweistichprobentests Verbundene Stichproben Beispiel: Pupillometer Mit einem Pupillometer kann man die Erweiterung (Dilatation) der Pupillen des Auges messen. Studien haben einen Zusammenhang zwischen Dilatation und Interesse am beobachteten Objekt festgestellt. 10 repräsentativ für die untersuchte Zielgruppe ausgewählten Personen werden zwei Besteck-Muster gezeigt und die Pupillendilatation gemessen. Die Tabelle gibt die Messwerte der 10 Personen an. Es ist davon auszugehen, dass die einzelnen Personen individuell zu unterschiedlich starken Pupillendilatationen neigen. Gibt es einen signikanten (α = 0.05) Unterschied der Reaktion der Kunden auf die Muster? Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 373 / 464 11. Spezielle Tests Jürgen Dippon (ISA) 11.3. Zweistichprobentests No. Muster 1 Muster 2 1 1 0.8 2 0.97 0.66 3 1.45 1.22 4 1.21 1 5 0.77 0.81 6 1.32 1.11 7 1.81 1.3 8 0.91 0.32 9 0.98 0.91 10 1.46 1.1 Statistik für Wirtschaftswissenschaftler 13. September 2010 374 / 464 11. Spezielle Tests XY Es wurden Paare an Daten ( i, i) xy ( i, i) 11.3. Zweistichprobentests erhoben, die mit Zufallsvariablen beschrieben werden. Es soll überprüft werden, ob im Mittel für beide Muster eine gleiche Reaktion gemessen wurde. Die Annahme X , . . . , Xn 1 u.i.v. bzw. Y , . . . , Yn 1 u.i.v. ist aber nicht mehr angemessen, da dem individuellen Dilatationspotential nicht Rechnung getragen wird. Stattdessen betrachten wir Zi = Xi − Yi und gehen davon aus, dass die individuellen Schwankungen wegsubtrahiert werde. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 375 / 464 11. Spezielle Tests Ansatz: Statistisches Modell: Dass die Dierenzen 11.3. Zweistichprobentests Zi ∼ N (∆, σ ) Zi 2 u.i.v. u.i.v. sein sollen, ist auch eine Modellvereinfachung, die aber oft als akzeptabel angesehen wird. Die unterschiedlichen Mustereinüsse werden im Mittel durch den Erwartungswert ∆ der Dierenzen erfasst. Ein groÿer Vorteil dieses Ansatzes: Hypothesen über dem Gauÿ-Test bei bekanntem σ2 σ2, ∆ kann man mit mit dem t-Test bei unbekanntem und mit dem approximativen Gauÿ-Test bei groÿen Stichproben durchführen. Beispiel: σ 2 unbekannt Jürgen Dippon (ISA) ⇒ Einstichproben-t-Test Statistik für Wirtschaftswissenschaftler 13. September 2010 376 / 464 11.3. Zweistichprobentests 11. Spezielle Tests t-Test für verbundene Stichproben Zi = Xi − Yi Es seien Z , . . . , Zn und 1 Zufallsvariablen. N (∆, σ ) 2 unabhängig Wir betrachten folgende Testprobleme über den Parameter 1 2 3 H H H 0 0 0 : ∆ = ∆0 : ∆ ≥ ∆0 : ∆ ≤ ∆0 gegen gegen gegen H H H 1 1 1 -verteilte ∆: : ∆ 6= ∆0 : ∆ < ∆0 : ∆ > ∆0 Basierend auf der Teststatistik T = Z̄nq−SZ∆ 2 wobei SZ 2 n 0 = √ n Z̄n S−Z ∆ T ∼ tn 0 die Stichprobenvarianz der ( Zi −1 , falls bezeichnet, und dem vorgegebenen α wird die Nullhypothese abgelehnt, | | > n−1,1− α2 2 falls < − n−1,1−α 3 falls > n−1,1−α 2 Analog: σ bekannt: Gauÿ-Test; groÿ: approximativer Signikanzniveau 1 falls T t T t T t Jürgen Dippon (ISA) n ∆ = ∆0 ), Statistik für Wirtschaftswissenschaftler Gauÿ-Test 13. September 2010 377 / 464 11.3. Zweistichprobentests 11. Spezielle Tests Beispiel: Pupillendilatation. Zi = Xi − Yi z ,...,z Wir gehen davon aus, die Dierenzen normalverteilt, und führen für die No. zi 1 0.2 Hypothese: Hilfsgröÿen: 2 0.31 3 0.23 H :∆=∆ = n = z̄ = . t = z̄n sz = 0 0 10, Kritischer Wert tn n −1,1− α 2 Jürgen Dippon (ISA) = 5 -0.04 6 0.21 H : ∆ 6= 0 0 gegen 0 265, −∆0 q 2 Teststatistik: 1 4 0.21 0.265−0 q 0.03547 10 t 1 sz = 2 sind näherungsweise 10 einen t-Test durch. 7 0.51 8 0.59 9 0.07 10 0.36 0.03547. = 4.45. 10−1,1− 0.205 = t 9,0.975 = 2.2622 Statistik für Wirtschaftswissenschaftler 13. September 2010 378 / 464 11. Spezielle Tests C = (−∞, −tn Ablehnungsbereich: ) −1,1− α 2 Testentscheidung: Da Niveau α = 0.05. 11.3. Zweistichprobentests t ∪ ( n−1,1− α2 , ∞) = (−∞, −2.2622) ∪ (2.2622, ∞) t t | |> 9,0.975 bzw. t∈C wird H 0 abgelehnt zum Es gibt eine signikant unterschiedliche Reaktion auf beide Besteck-Muster. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 379 / 464 11. Spezielle Tests 11.4. Zusammenhangsanalyse Zusammenhangsanalyse Unabhängigkeit von diskreten Merkmalen Wie kann man die Unabhängigkeit von zweidimensionalen diskreten Zufallsvariablen nachprüfen? Beispiel: Sonntagsumfrage Im Rahmen einer Sonntagsumfrage wurden 931 Personen bzgl. ihrer Parteienpräferenz befragt. CDU/CSU SPD FDP Grüne Rest Summe Männer 144 153 17 26 95 435 Frauen 200 145 30 50 71 496 Summe 344 298 47 76 166 931 Besitzen Männer und Frauen eine unterschiedliche Parteienpräferenz oder kann man die Abweichungen auch durch Zufall erklären? Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 380 / 464 11.4. Zusammenhangsanalyse 11. Spezielle Tests Vorüberlegungen: xk k yk x y ), . . . , (xn, yn) (X , Y ), . . . , (Xn , Yn ) (X , Y ) (Xk , Yk ) Von jeder Person (Untersuchungsklassenobjekt Geschlecht ( ) und die Parteienpräferenz ( also Datenpaare ( 1, ) werden das ) erfasst. Wir erfassen . 1 Die Datenpaare werden statistisch beschrieben mit zweidimensionalen diskreten u.i.v. Zufallsvektoren verteilt wie 1 . 1 sei . Die Merkmale Geschlecht und Partei werden hierbei durch Zahlen kodiert. Beschreibung der Verteilung mit Einzelwahrscheinlichkeiten: P (X = i , Y = j ) = pij , i = 1, 2, j= 1, . . . , 5 Die Randverteilungen sind dann gegeben durch P (X = i ) = pi , P (Y = j ) = p j · mit pi = pi · Jürgen Dippon (ISA) 1 p + · · · + i5 · und pj =p j +p j · Statistik für Wirtschaftswissenschaftler 1 2 13. September 2010 381 / 464 11.4. Zusammenhangsanalyse 11. Spezielle Tests und Unabhängigkeit von j= Es soll 1, . . . , 5 muss gelten X und Y überprüft werden, d.h. für i= 1, 2 P (X = i , Y = j ) = P (X = i ) · P (Y = j ) pij = pi · p j · · Plausibilitätsbetrachtungen zur Konstruktion eines Tests: Nach obigen Überlegungen würde ein Ausdruck der Form 2 X 5 X i =1 j =1 p pp ( ij − i · ·j )2 Null werden im Falle der Unabhängigkeit und sonst gröÿer als Null sein. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 382 / 464 11. Spezielle Tests pij , pi , p j Nij = (Xk , Yk ) k = , . . . , n Ni = k = ,...,n Nj = k = ,...,n Wir ersetzen 11.4. Zusammenhangsanalyse · durch Schätzer: · (zufällige) Anzahl des Auftretens von , 1 , (zufällige) Anzahl des Auftretens von · 1 , (zufällige) Anzahl des Auftretens von · 1 Jürgen Dippon (ISA) ij (, ) i j Statistik für Wirtschaftswissenschaftler als Wert von als Wert von als Wert von Xk Yk 13. September 2010 , , 383 / 464 11.4. Zusammenhangsanalyse 11. Spezielle Tests P (X = i , Y = j ) = pij ⇒ Nij ∼ B (n, pij ) ⇒ p̂ij = Nnij P (X = i ) = pi ⇒ Ni ∼ B (n, pi ) ⇒ p̂i = Nni P (Y = j ) = p j ⇒ N j ∼ B (n, p j ) ⇒ p̂ j = Nnj · · · · · · · · · · Mit geeigneter Normierung lässt sich die folgende Aussage zeigen: n · X X (p̂ij −p̂i p̂p̂i jp̂ j ) 2 χ2 = 5 i =1 j =1 asymptotisch Jürgen Dippon (ISA) · · · · 2 2 = 5 XX i =1 j =1 Nij − Ni nN j · · 2 Ni · N·j n χ2(2−1)(5−1) = χ24 -verteilt Statistik für Wirtschaftswissenschaftler 13. September 2010 384 / 464 11. Spezielle Tests 11.4. Zusammenhangsanalyse χ2 -Unabhängigkeitstest Seien X , Y ), . . . , (Xn, Yn) k ( 1 1 nehmen k m) Ym u.i.v. zweidimensionale diskrete Zufallsvektoren gruppiert in einer ( × verschiedene Wert an und die betrachten das Testproblem H :X H :X 0 1 und 1 1 und Jürgen Dippon (ISA) -Kontingenztafel, d.h. die 1 X 1 verschiedene Werte. Wir Y Y 1 sind stochastisch unabhängig gegen 1 sind nicht stochastisch unabhängig. Statistik für Wirtschaftswissenschaftler 13. September 2010 385 / 464 11.4. Zusammenhangsanalyse 11. Spezielle Tests Basierend auf der Teststatistik χ2 = m k X X Nij − Ni nN j i =1 j =1 und dem vorgegebenen Signikanzniveau falls wobei qk χ2 > ( −1)(m−1),1−α das (1 · · 2 Ni · N·j n α fällt die Entscheidung für qk H 1, ( −1)(m−1),1−α , − α)-Quantil der χ2(k −1)(m−1) -Verteilung bezeichnet. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 386 / 464 11. Spezielle Tests 11.4. Zusammenhangsanalyse Bemerkung: Gemäÿ der Plausibilitätsüberlegungen nimmt χ2 X Abhängigkeit von 1 und Y 1 groÿe Werte an. Beispiel: Sonntagsumfrage. X bezeichne das Geschlecht und Hypothesen: H :X H :H 0 1 und im Falle der Y Y die Parteienpräferenz. sind stochastisch unabhängig 0 ist falsch Teststatistik: χ2 = 2 X 5 X i =1 j =1 Jürgen Dippon (ISA) Nij − Ni nN j · Ni · N·j n · 2 asymptotisch Statistik für Wirtschaftswissenschaftler χ24 -verteilt 13. September 2010 387 / 464 11. Spezielle Tests Nij Hij Eij Männer Frauen Summe = Ni · N·j /n ⇒ CDU/CSU 144 200 344 SPD 153 145 298 FDP 17 30 47 Grüne 26 50 76 Rest 95 71 166 160.73 183.27 139.24 158.76 21.96 25.04 35.51 40.49 77.56 88.44 1.74 1.53 1.36 1.19 1.12 0.98 2.55 2.23 3.92 3.44 = (Nij − Hij )2 /Hij Hier ist 11.4. Zusammenhangsanalyse χ2 = 20.26 = P Eij Summe 435 496 931 wobei der Quantilwert 9.49 beträgt. Es besteht ein signikanter Zusammenhang zwischen Geschlecht und Parteienpräferenz. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 388 / 464 11. Spezielle Tests 11.4. Zusammenhangsanalyse Test auf Unkorreliertheit und zweidimensionale Normalverteilung Beispiel: Blutdruckdaten. Für 15 zufällig ausgewählte Frauen wurde das Alter x ( i) festgestellt und der Blutdruck y ( i) gemessen. Gibt es einen Zusammenhang zwischen diesen beiden Merkmalen? i 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 Jürgen Dippon (ISA) Alter ( 47 52 30 35 59 44 63 38 49 41 32 55 46 51 63 xi ) Blutdruck 129 139 112 119 145 133 152 117 145 136 115 137 134 141 157 ( yi ) Statistik für Wirtschaftswissenschaftler 13. September 2010 389 / 464 11. Spezielle Tests 11.4. Zusammenhangsanalyse Wir haben den Korrelationskoezienten als lineares Zusammenhangsmaÿ x y ), . . . , (xn, yn) (X , Y ), . . . , (Xn , Yn ) zwischen zwei Zufallsvariablen kennen gelernt. Wir fassen die Datenpaare ( 1, als Realisierung der 1 zweidimensionalen u.i.v. Zufallsvektoren 1 1 auf. Wie schätzen wir den Korrelationskoezienten? 1. Schritt: Schätzen der Kovarianz. Nach der Verschiebungsregel gilt σxy = Cov (X , Y ) = E (XY ) − E (X )E (Y ) Erwartungswerte kann man gut durch arithmetische Mittel schätzen, also n n n M̂XY = n X Xi Yi , M̂X = n X Xi , M̂Y = n X Yi . 1 i =1 Jürgen Dippon (ISA) 1 i =1 Statistik für Wirtschaftswissenschaftler 1 i =1 13. September 2010 390 / 464 11. Spezielle Tests 11.4. Zusammenhangsanalyse Damit ist die Analogie zur so genannten Momentenschätzmethode S̃XY = M̂XY − M̂X · M̂Y = n 1 ein Schätzer für Cov (X , Y ) n X i =1 X X̄ Y Ȳ ( i − n )( i − n ) . Durch Änderung des Vorfaktors wird der Schätzer erwartungstreu, Sxy = n − n X 1 1 i =1 Jürgen Dippon (ISA) X X̄ Y Ȳ ( i − n )( i − n ) = n X 1 n− 1 i =1 Statistik für Wirtschaftswissenschaftler Xi Yi − n · X̄n · Ȳn 13. September 2010 ! 391 / 464 11. Spezielle Tests 11.4. Zusammenhangsanalyse 2. Schritt Schätzen des Korrelationskoezienten. Ausgehend von der Denition %XY = p Cov (X , Y ) Var (X ) · Var (Y ) setzen wir für die Kovarianz und die Varianzen Schätzer ein: RXY = qSXY S X SY 2 mit SX = n − 2 Jürgen Dippon (ISA) n X 1 1 i =1 X X̄ 2 ( i − n) , 2 SY = n − 2 n X 1 Statistik für Wirtschaftswissenschaftler 1 i =1 Y Ȳ ( i − n) 13. September 2010 392 / 464 11. Spezielle Tests D.h. RXY = qSXY SX SY 2 11.4. Zusammenhangsanalyse 2 X X̄ Y Ȳ X X̄ Y Ȳ X X̄ Y Ȳ X X̄ Y Ȳ Pn 1 i =1 ( i − n )( i − n ) n −1 =q P Pn n 1 1 2 2 n −1 i =1 ( i − n ) · n −1 i =1 ( i − n ) Pn ( i − n )( i − n ) = qP i =1 n ( − )2 · Pn ( − )2 n n i =1 i i =1 i Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 393 / 464 11. Spezielle Tests 11.4. Zusammenhangsanalyse Beispiel: Blutdruckdaten. Für den angegebenen Datensatz bekommen wir folgenden Schätzwert für den Korrelationskoezienten: x̄ = X i s s s ȳ = 47, yi 2 X 134.07, = 272175, i X i xi 2 = 34685 xi yi = 96387 x nx̄ n y nȳ n x y nx̄ ȳ n P 2 2 2 34685 − 15 · 47 i i − = = = 110.714, X −1 14 P 2 2 2 272175 − 15 · 134.07 2 i i − = = 182.395, Y = 14 P −1 96387 − 15 · 47 · 134.07 2 i i i− = = 133.404, XY = −1 14 2 Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 394 / 464 11. Spezielle Tests rXY = qsXY = √ sX sY 2 2 Der Schätzwert spricht für einen 11.4. Zusammenhangsanalyse 133.404 110.714 · 182.395 = 0.939 starken positiven Zusammenhang. Ist der Korrelationskoezient signikant von Null verschieden oder könnte dieser Wert auch zufällig zustande gekommen sein? X Y Um derartige Fragen beantworten zu können, brauchen wir eine geeignete Beschreibung der gemeinsamen Verteilung von über die 2-dimensionale Normalverteilung. Jürgen Dippon (ISA) und Statistik für Wirtschaftswissenschaftler , siehe Abschnitt 13. September 2010 395 / 464 11.4. Zusammenhangsanalyse 11. Spezielle Tests Korrelationstest Seien X , Y ), . . . , (Xn, Yn) ( 1 1 gemeinsam normalverteilte, u.i.v. Zufallsvektoren. Wir betrachten folgende Testprobleme über die Korrelation 1 2 3 H H H 0 0 0 : ρXY = 0 : ρXY ≥ 0 : ρXY ≤ 0 gegen gegen gegen H H H 1 1 1 : ρXY = 6 0, : ρXY < 0, : ρXY > 0. Basierend auf der Teststatistik T = q Rxy 1 T t und dem vorgegebenen Niveau ∼ n −2 | | > n−2,1− α2 , < − n−2,1−α , > n−1,1−α . Testproblem (hier gilt 1 falls 2 falls 3 falls α T t T t T t Jürgen Dippon (ISA) R 2 − xy √ n− 2 fällt die Entscheidung für falls ρXY = 0), Statistik für Wirtschaftswissenschaftler H 1 im 13. September 2010 396 / 464 11. Spezielle Tests 11.4. Zusammenhangsanalyse Beispiel: Blutdruckdaten. rXY = . H : ρXY 6= Für den angegebenen Datensatz bekommen wir folgenden Schätzwert für den Korrelationskoezienten Hypothese: H Teststatistik: 0 : ρXY = 0 0 939. gegen t = √n − √ rxyrxy = √ tn =t |t | = . > . Kritischer Wert: 2 1− −2,1− α 2 Testentscheidung: Da 2 15 15−2,1− 0.201 9 82 0 1 = 9.82 − 2 √10−.939 0.9392 = t 13,0.995 = 3.0123. 3 0123 ist die Nullhypothese der Unkorreliertheit abzulehnen. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 397 / 464 12. Lineare Regression 9 Parameterschätzung 10 Testen von Hypothesen 11 Spezielle Tests 12 Lineare Regression Einfache lineare Regression Methode der kleinsten Quadrate Gütemaÿ für die Anpassung der Geraden Stochstatisches Modell 13 Zeitreihen Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 398 / 464 12. Lineare Regression 12.1. Einfache lineare Regression Einfache lineare Regression Beispiel: Rohöl und Benzinpreise yi Die folgenden Daten geben die mittleren Rohöl-Preise und Benzinpreise Jürgen Dippon (ISA) (in Cent/Gallone) wieder: yi xi (in Dollar/Barrel) xi i Jahr i 1 1980 125 28.07 2 1981 138 35.24 3 1982 129 31.87 . . . . . . . . . . . . 21 2000 151 28.26 22 2001 146 22.96 Statistik für Wirtschaftswissenschaftler 13. September 2010 399 / 464 12. Lineare Regression 12.1. Einfache lineare Regression Zu diesen Daten stellen sich einige Fragen: Ist ein Zusammenhang zwischen Rohölpreis und Benzinpreis feststellbar? Welchen Benzinpreis würde man im Mittel anhand der Daten prognostizieren, wenn der Rohölpreis auf 50$ pro Barerel steigt? In welchem Bereich würde der Benzinpreis nicht nur sein Erwartungswert mit groÿer Wahrscheinlichkeit liegen? Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 400 / 464 12. Lineare Regression 12.1. Einfache lineare Regression Schritt 1: Veranschaulichung mit Hilfe eines Streudiagramms Abbildung: Darstellung der Daten als Streudiagramm Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 401 / 464 12. Lineare Regression 12.1. Einfache lineare Regression Schritt 2: Vermutung über Zusammenhang anstellen. Nicht unerwartet korrespondieren gröÿere Ölpreise mit höheren xy xi yi Benzinpreisen. Man könnte näherungsweise einen linearen Zusammenhang mutmaÿen. Seien ( i, i) die Datenpaare, wobei den Benzinpreisen entspricht, dann gilt: wobei die ei yi = a + bxi + ei die Abweichungen von der Gerade den Rohölpreisen und a + bx beschreiben. Schritt 3: Ermittlung einer Geraden, die den Zusammenhang zwischen den Daten möglichst gut beschreibt.Dazu wird die Methode der kleinsten Quadrate verwendet. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 402 / 464 12. Lineare Regression 12.1. Einfache lineare Regression Methode der kleinsten Quadrate Ausgehend von der Beziehung: yi = a + bxi + ei , ei = yi − (a + bxi ) Fehler (Residuum) sucht man nach einer Gerade, für die alle Fehlerterme (error) klein werden. Das erreicht man z.B. in dem man n n ei möglichst Q (a, b) := X ei = X [yi − (a + bxi )] i =1 2 2 i =1 minimiert. Wir gehen im Folgenden davon aus, dass die identisch sind. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler xi nicht alle 13. September 2010 403 / 464 12. Lineare Regression 12.1. Einfache lineare Regression Abbildung: Darstellung der Fehlerquadrate Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 404 / 464 12.1. Einfache lineare Regression 12. Lineare Regression Das Minimierungsproblem ist: n Q (a, b) = X [yi − (a + bxi )] 2 → Min i =1 Die kritischen Stellen werden ermittelt: Qab a Qab b n X ∂ 2·[ i −( + ( , ) = ∂ i =1 n X ∂ ( , ) = 2·[ i −( + ∂ i =1 Jürgen Dippon (ISA) y a bxi )] · (− ) 1 y a bxi )] · (−xi ) Statistik für Wirtschaftswissenschaftler 13. September 2010 405 / 464 12. Lineare Regression 12.1. Einfache lineare Regression Die Lösung des linearen Gleichungssystems Qab ∂Q (a, b) = a ∂b â b̂ Pn b̂ = Pi n xxi yi −−nnx̄x̄ ȳ , â = ȳ − b̂x̄ i i ∂ ( , )=0 ∂ führt auf genau eine Lösung , =1 =1 Jürgen Dippon (ISA) 0 , die Q minimiert: 2 2 Statistik für Wirtschaftswissenschaftler 13. September 2010 406 / 464 12. Lineare Regression 12.1. Einfache lineare Regression Einfache lineare Regression und Kleinste-Quadrate-Methode x y ), ..., (xn, yn) yi = a + bxi + ei , i = , ..., n Gegeben seien die reellwertigen Beobachtungswerte Dann heiÿt ( 1, . 1 1 einfache lineare Regressionsgleichung wobei a den Achsenabschnitt, b sX > den Steigungsparameter und Annahme 2 0 sind die ei Kleinste-Quadrate-Koezienten für gegeben durch: â = ȳ − b̂x̄ , b̂ x y nx̄ ȳ = n x nx̄ Pn 1 i i − = Pi = n 2 i =1 i − 2 1 −1 und b x x̄ y ȳ x x̄ Pn i =1 ( i − )( i − ) Pn 1 2 n −1 i =1 ( i − ) Kleinste-Quadrate-Gerade (KQ-Gerade) ergibt sich durch ŷ (x ) = â + b̂x Die a die Residuen (Fehler) bezeichnen. Unter der . Die Werte yˆi = â + b̂xi und KQ-gettete Werte bzw. KQ-Residuen. Jürgen Dippon (ISA) eˆi = yi − yˆi Statistik für Wirtschaftswissenschaftler bezeichnen wir als 13. September 2010 407 / 464 12. Lineare Regression Eigenschaften 12.1. Einfache lineare Regression (x̄ , ȳ ) â = ȳ − b̂x̄ ⇒ ȳ = â + b̂x̄ = ŷ /(x̄ ). Die KQ-Gerade geht durch den Mittelpunkt . Die Summe der KQ-Residuen ist gleich 0: n X i =1 ŷ¯ = ȳ Wenn alle Punkte x ei = 0 xy a + bx â = a, b̂ = b, yˆi = yi , eˆi = ( i, i) auf der Geraden liegen, dann sind: 0 Eine Prognose wird mit der KQ-Geraden vorgenommen. Für einen Wert prognostiziert man den y-Wert: Jürgen Dippon (ISA) ŷ (x ) = â + b̂x Statistik für Wirtschaftswissenschaftler 13. September 2010 408 / 464 12. Lineare Regression 12.1. Einfache lineare Regression Gütemaÿ für die Anpassung der Geraden Wie gut lassen sich die Daten mit einer Geraden beschreiben? Streuungszerlegung der Regression n X i =1 y ȳ ( i − )2 = n X i =1 y ȳ ( ˆi − )2 + n X i =1 y y ( i − ˆi )2 Ansatz: Die Residualstreuung ist die Summe der verbliebenen quadrierten Fehler nach Anpassung der Geraden. Die Anpassung ist gut, falls der Anteil der erklärten Streuung an der Gesamtstreuung groÿ ist: R Jürgen Dippon (ISA) 2 y ȳ y ȳ Pn ( ˆi − )2 = Pin=1 = 2 i =1 ( i − ) Erklärte Streuung Gesamtstreuung Statistik für Wirtschaftswissenschaftler 13. September 2010 409 / 464 12. Lineare Regression 12.1. Einfache lineare Regression Bestimmtheitsmaÿ Gegeben seien die reellwertigen Beobachtungswerte sX > 2 Dann ist das 0 und sY > 2 x y ), ..., (xn, yn) ( 1, 1 mit 0 Bestimmtheitsmaÿ der KQ-Regression gegeben durch: R 2 y y y ȳ y ȳ y ȳ Pn Pn 2 2 i =1 ( i − ˆi ) i = 1 ( ˆi − ) = 1 − Pn = Pn 2 2 i =1 ( i − ) i =1 ( i − ) Eigenschaften 0 R ≤ 2≤1 2 2 = XY 2 = 1 genau dann, wenn alle Punkte ( i , i ) 2 = 0 genau dann, wenn XY = 0 ist. R r R R s R xy auf einer Geraden liegen. R Eine gute Beschreibung der Daten durch eine Gerade liegt bei groÿen Werten von (nahe 0). 2 (nahe 1) vor, eine schlechte bei kleinen Werten von Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 2 410 / 464 12.1. Einfache lineare Regression 12. Lineare Regression Beispiel (fortgesetzt): Ölpreise Direkte Berechnung der Regressionsgeraden: x̄ = X i sX sY 2 = 2 = sXY = ȳ = 21.572, yi 2 = 309218, x nx̄ = n y nȳ = n x y nx̄ ȳ = n P 2 i i − −1 P 2 i i − P −1 i i i− −1 2 2 Daher: b̂ = ssxy = 2 X 69.342 40.026 Jürgen Dippon (ISA) = 1.732, X 117.635, i X i 11078.277 xi xi yi = 2 = 11078.277 57284.35 − 22 · 21.5722 21 57284.35 − 22 · 117.6362 21 57284.35 = 40.026 = 227.475 − 22 · 21.572 · 117.636 â = ȳ −b̂x̄ = 21 = 69.342 117.636 − 1.732 · 21.572 Statistik für Wirtschaftswissenschaftler = 80.273 13. September 2010 411 / 464 12. Lineare Regression 12.1. Einfache lineare Regression Und für das Bestimmtheitsmaÿ ergibt sich: rXY = qsXY = √ sX sY x= 2 2 Prognose für x= 50 ergibt 69.342 40.026 · 227.475 = 0.727, R = rXY = 2 2 0.529 50 durch Einsetzen in KQ-Gleichung ŷ ( 50) Jürgen Dippon (ISA) ŷ (x ) = â + b̂x , ≈ 166.9. Statistik für Wirtschaftswissenschaftler 13. September 2010 412 / 464 12. Lineare Regression In R 12.1. Einfache lineare Regression lässt sich die Regressionsgerade mit eine paar einfachen Kommandos berechnen und in das Streudiagramm einzeichnen: plot ( o e l p r e i s , b e n z i n p r e i s ) ## Scatterplot m y r e g r e s s i o n <− lm ( b e n z i n p r e i s ~ o e l p r e i s ) myregression ## z e i g t Ergebnis der Regressionsrechnung abline ( m y r e g r e s s i o n ) ## zeichnet Regressionsgerade Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 an 413 / 464 12. Lineare Regression 12.1. Einfache lineare Regression Abbildung: Streudiagramm mit Regressionsgeraden Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 414 / 464 12. Lineare Regression 12.1. Einfache lineare Regression Beispiel (fortsetzung): Blutdruckdaten Die Berechnung der KQ-Daten und des Bestimmtheitsmaÿes wird R überlassen. Abbildung: Regression zu Blutdruckdaten Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 415 / 464 12.1. Einfache lineare Regression 12. Lineare Regression Der Fit der Geraden ist hier besser: ŷ ( 45) Im Mittel R 2 ist gröÿer als im vorigen Beispiel. = 77.363 + 1.2065 · 45 = 131.6 ≈ 132 würde man bei einer 45-jährigen Frau einen Blutdruck von 132 erwarten. Wie genau ist der Wert und wie groÿ ist der normale Schwankungsbereich dieses Wertes für einzelne Frauen? Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 416 / 464 12.2. Stochstatisches Modell 12. Lineare Regression Stochastisches Modell Um für Datenpaare xy i n ( i , i ), = 1, ..., , für die man lineare i und i -Werten vermutet, Zusammenhänge zwischen den x y Wahrscheinlichkeitsaussagen ableiten zu können, muss man sie mit einem geeigneten statistischen Modell breschreiben. Wie im letzten Abschnitt sollen die Daten durch eine Geradenbeziehung yi = α + βxi + ei beschrieben werden. Wenn die yi xi ei ei als als die Die als yi funktional beschrieben werden durch die xi bezeichnet man abhängige oder endogene Variablen unabhängige oder exogene Variablen oder Regressoren und latente Variablen oder Störvariablen. können nicht beobachtet werden und die Parameter α und β sind unbekannt. Wo gibt es im Modell zufällige Komponenten? Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 417 / 464 12.2. Stochstatisches Modell 12. Lineare Regression Beispiel: College-Absolventen xi Die folgenden Daten geben die Anzahl der Absolventen eines kleinen yi Colleges an, die im Jahr ( Die Anzahl ( ) ihres Abschlusses einen Job gefunden haben. ) der Absolventen soll über die Jahre etwa gleich groÿ gewesen sein. Jahr Berufseinsteiger Die Jahre xi yi 1 2 3 4 5 6 121 138 115 162 160 174 sind nichtzufällig, während die konkreten Berufseinsteigerzahlen nicht vorhersehbar waren und als zufällig interpretiert werden können. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 418 / 464 12. Lineare Regression 12.2. Stochstatisches Modell Streudiagramm Abbildung: Berufseinsteiger Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 419 / 464 12. Lineare Regression 12.2. Stochstatisches Modell Modell mit deterministischen Regressoren xi Yi sind deterministisch und yi ei = yi − α − βxi εi = Yi − α − β xi sind als Realisierungen von Zufallsvariablen aufzufassen. Dann sind aber auch die Realisierungen von Zufallsvariablen Modellansatz: Jürgen Dippon (ISA) als aufzufassen. Yi = α + βxi + εi Statistik für Wirtschaftswissenschaftler 13. September 2010 420 / 464 12.2. Stochstatisches Modell 12. Lineare Regression Beispiel(fortgesetzt): Blutdruckdaten x y Im Rahmen der Datenerhebung wurden 15 Frauen ausgewählt. Im Vorfeld der Erhebung ist i.A. sowohl das Alter ( i) nicht bekannt und muss als Realisierung von Zufallsvariablen aufgefasst werden. Modell mit stochastischen Regressoren: Xi , Yi Das zufällige Verhalten der Beobachtung beschrieben mit Zufallsvariablen stehen: und Xi als auch der Blutdruck xi und εi , yi sowie ei ( i) bzw. Yi werden die in folgender Beziehung Yi = α + βXi + εi Dabei wird die Zusatzannahme getroen, dass Xi und εi unabhängig sind. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 421 / 464 12.2. Stochstatisches Modell 12. Lineare Regression Beide Regressionsmodelle haben groÿe Gemeinsamkeiten: Die Schätzer für die Parameter Formeln berechnet, s.u. Die bedingte Verteilung von Yi α und β gegeben werden mit den gleichen Xi = xi ist gleich der Verteilung, die sich aus dem deterministischen Ansatz ergibt. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 422 / 464 12. Lineare Regression 12.2. Stochstatisches Modell Wir beschränken uns im Folgenden auf die nähere Untersuchung des Modells mit deterministischen Regressoren. Standardmodell der linearen Einfachregression x , . . . , xn Y , . . . , Yn (x , Y ), . . . , (xn , Yn ) Standardmodell der linearen Einfachregression α, β σ > Yi = α + βxi + εi , i = , . . . , n εi E (εi ) = Var (εi ) = σ seien reelle Zahlen und 1 Die Vektoren 1 1 1 seien reelle Zufallsvariablen. erfüllen das mit den Parametern 2 und 0, wenn 1 gilt, wobei u.i.v. Zufallsvariablen sind, für die 2 0 und gilt. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 423 / 464 12. Lineare Regression 12.2. Stochstatisches Modell Anmerkungen: Die Zufallsvariablen εi Regressionsgeraden Die xi Yi können nicht beobachtet werden. Sie x beschreiben die Abweichungen der α+β . -Werte von der aufzufassen. xi Xi -Werte sind entweder als einstellbare deterministische, d.h. nicht zufällige, Regressoren oder als Realisierungen von Zufallsvariablen y β beschreibt die lineare Abhängigkeit der i β = 0, gibt es keine (lineare) Abhängigkeit. Der Parameter -Werten. Ist Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 von den 424 / 464 12. Lineare Regression 12.2. Stochstatisches Modell Die Schätzer im Standardmodell berechnen wir wie oben durch Minimierung von Q (α, β) := sX > n X i =1 Y x [ i − (α + β · i )]2 → Minα,β Als Ergebnis erhalten wir in Analogie zu oben: Wenn 2 0 ergeben sich als Schätzer α̂ und β̂ Ȳ und β̂ im Standardmodell x̄ x x̄ Y Ȳ x x̄ α̂ = n − β̂ · , Pn 1 n i −1 ( i − )( i − n ) = XY . n −1 = Pn 1 2 2 2 X n −1 i =1 ( i − ) x Y nx̄ Ȳ x nx̄ Pn i =1 i i − β̂ = P n 2 i =1 i − α̂ sind erwartungstrue für das Schätzen von E (α̂) = α Schätzer und α bzw. E (β̂) = β . Schätzwerte S s β, d.h. Anmerkung zur Bezeichnung: Wie in der Literatur gebräuchlich bezeichnen α̂ und β̂ i.F. sowohl die als auch die für α und β. Die jeweilige Bedeutung erschlieÿt sich aus dem Kontext. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 425 / 464 12. Lineare Regression 12.2. Stochstatisches Modell Beispiel (fortgesetzt): College-Absolventen. x̄ = 3.5, ȳ = X 145, xi 2 = 91, X yi 2 = 129030, X xi yi = 3234 i i i P 2 2 2 91 − 6 · 3.5 2 i i − · = = 3.5 = X −1 5 P 2 2 2 29030 − 6 · 145 2 i i − · = = = 576 Y −1 5 P i i i − · · = 3234 − 6 · 3.5 · 145 = 37.8 XY = −1 5 s x n x̄ n y n ȳ n x y n x̄ ȳ n s s sXY = . = . sX . α̂ = ȳ − β̂ · x̄ = − s rXY = q XY = √ . .· sX · sY Daher β̂ = 37 5 2 3 5 10 8 10.8 145 · 3.5 = 107.2 37 5 2 2 Jürgen Dippon (ISA) 3 5 576 = 0.8419 R = rXY = 2 Statistik für Wirtschaftswissenschaftler 2 0.8419 2 13. September 2010 = 0.788. 426 / 464 12. Lineare Regression 12.2. Stochstatisches Modell Abbildung: Streudiagramm mit Regressionsgeraden Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 427 / 464 12. Lineare Regression 12.2. Stochstatisches Modell Zur näheren Beschreibung der Verteilung von α̂ und β̂ kann man die Varianzen berechnen. Dazu macht man sich zunutze, dass β̂ = β + n X i =1 ci εi und α̂ = α + n X 1 i =1 n − ci x̄ εi ci = Pni xi(x−i −x̄ x̄ ) mit =1 2 gilt. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 428 / 464 12.2. Stochstatisches Modell 12. Lineare Regression Die Varianzen berechnen sich als Var (β̂) = σ Var (α̂) = σ σ2 Pn = 2 β̂ i =1 (Pi − ) n 2 σ2 2 Pn i =1 i 2 α̂ = · i =1 ( i − ) 2 n x x̄ x x x̄ Die Varianzen kann man nicht direkt berechnen, da sie vom unbekannten Parameter Aber: α̂ σ2 bzw. abhängen. β̂ sind MSE- und schwach konsistent für Konsistenzbedingung n X i =1 x x̄ ( i − )2 → ∞ für α bzw. β, wenn die n→∞ gilt. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 429 / 464 12.2. Stochstatisches Modell 12. Lineare Regression Ausgehend von der Denition des Bestimmtheitsmaÿ kann man die Berechnung von σ̂ 2 auf bekannte Gröÿen zurückführen: R ⇒ n X i =1 Also σ̂ 2 = y ŷ 2 y ŷ y ȳ P2 ( i − i )2 = 1 − Pin=1 2 i =1 ( i − ) 2 ( i − i ) = (1 − n− n− 1 1 (1 − R) 2 n X i =1 y ȳ ( i − )2 = (1 − R )sY = nn −− sY − ssXY 2 1 2 2 2 R )(n − )sY . 2 2 2 X mit 2 1 R = RXY . 2 2 Beispiel (fortgesetzt): College-Daten. Es ist dann σ̂ 2 = n − sY ( − R ) = n− Jürgen Dippon (ISA) 1 2 2 1 2 5 4 576 · (1 − 0.7088) = 209.664. Statistik für Wirtschaftswissenschaftler 13. September 2010 430 / 464 12. Lineare Regression Mit dem Schätzer für α̂ und β̂ σ2 12.2. Stochstatisches Modell kann man die Varianzen bzw. Standardfehler von schätzen x P σ̂ 2 ni=1 i2 P σ̂α̂ = · ni=1 ( i − )2 σ̂ 2 σ̂β̂2 = Pn 2 i =1 ( i − ) 2 n x x̄ x x̄ σ̂α̂ = σ̂β̂ = q σ̂α̂2 q σ̂ 2 β̂ Unter präziseren Verteilungsannahmen kann auch die Verteilung der Schätzer genauer beschrieben werden und es können Tests konstruiert werden. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 431 / 464 12. Lineare Regression 12.2. Stochstatisches Modell Normalverteilungsannahme: Die Störvariablen sind normalverteilt, also εi u.i.v. und εi ∼ N ( , σ ). 2 0 Unter der Normalverteilungsannahme gilt α̂ n und β̂ sind gemeinsam normalverteilt. ( − 2) · σ̂ 2 /σ 2 α̂ und σ̂ 2 bzw. Jürgen Dippon (ISA) ist β̂ χ2 -verteilt und σ̂ 2 mit n− 2 Freiheitsgraden. sind unabhängig. Statistik für Wirtschaftswissenschaftler 13. September 2010 432 / 464 12.2. Stochstatisches Modell 12. Lineare Regression Aus der Normalverteilungsannahme und der Denition der folgt t -Verteilung σ̂α̂ α̂ − α σ̂ = σα̂ σα̂ σ s s 2 ( − 2)σ̂ 2 α̂ − α = ∼ n −2 = σα̂ σ 2 ( − 2) ( − 2) α̂ − α α̂ − α = σ̂α̂ σα̂ mit Z = σα̂ α̂ n n ∼ N ( , ), W 0 1 Eine analoge Aussage gilt für 2 = n W n Z t ( − 2)σ̂ 2 ∼ χ2n−1 . σ2 β̂ Unter der Normalverteilungsannahme gilt t α̂ − α ∼ n −2 σ̂α̂ und Mit Hilfe dieser Aussagen lassen sich Tests für Jürgen Dippon (ISA) t β̂ − β ∼ n −2 σ̂β̂ α und Statistik für Wirtschaftswissenschaftler β konstruieren: 13. September 2010 433 / 464 12.2. Stochstatisches Modell 12. Lineare Regression Tests für die Regressionskoezienten sX > β H β=β H β≥β H β≤β Gegeben sei das Standardmodell der linearen Einfachregression mit 2 Normalverteilungsvorraussetzung sowie H H H H H H Testprobleme über die Parameter a) b) c) α = α0 0 :α ≥ α0 0 :α ≤ α0 0: α 6= α0 1 :α < α0 1 :α > α0 gegen 1: gegen gegen α , d) , e) , f) Basierend auf der Teststatistik T α0 und α̂ − α0 = q σ̂α̂2 0: 0 gegen 0: 0 gegen 0: 0 gegen T bzw. β0 a) , falls b) , falls T | > tn T < −tn T > tn c ) , falls | α0 α0 α0 Jürgen Dippon (ISA) −2,1−a∗ /2 , d) , falls −2,1−a −2,1−a ∗ ∗ , e) , falls , f ) , falls H H H β 6= β0 , 1 :β < β0 , 1 :β > β0 . 1: β̂ − β0 = q σ̂ 2 β̂ und dem vorgegebenen Signikanzniveau im Testproblem 0. Wir betrachten folgende : α∗ fällt die Entscheidung für T | > tn T < −tn T > tn | β0 −2,1−α∗ /2 β0 −2,1−α∗ β0 H 1 −2,1−α∗ Statistik für Wirtschaftswissenschaftler 13. September 2010 434 / 464 12.2. Stochstatisches Modell 12. Lineare Regression Insbesondere der Test H :β= 0 yi xi 0 ist wichtig, da hiermit überprüft wird, ob es einen linearen Zusammenhang zwischen den - und -Werten gibt. Beispiel (fortgesetzt) College-Daten. Wir wollen überprüfen, ob β=0 Dazu berechnen wir den Schätzer für den Standardfehler von σ̂ 2 σ̂ 2 σ̂β̂2 = Pn = = 2 ( − 1) X2 i =1 ( i − ) x x̄ Damit ist n s t = β̂q−σ̂β 0 2 Der kritische Wert ist ist die Nullhypothese t β̂ α∗ = 0.05. β̂ . ist. Das Signikanzniveau sei = 209.664 5 · 3.5 10.8 −0 3.4613 = 11.9808 ⇒ σ̂β̂ = 3.4613. = 3.12. t n−2,1−α∗ /2 = 4,0.975 = 2.7764. Wegen 3.12 > 2.7 β = 0 abzulehnen. Es gibt also einen signikanten linearen Trend bei den Berufseinsteigerzahlen. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 435 / 464 12.2. Stochstatisches Modell 12. Lineare Regression Ausgehend von der Verteilungsaussage zu Kondenzintervalle für α und β α̂ β̂ und kann man herleiten: Gegeben sei das Standardmodell der linearen Einfachregression mit Normalverteilungsvorraussetzung. Dann sind t t t t α̂ − n−2,1−α∗ /2 σ̂α̂ , α̂ + n−2,1−α∗ /2 σ̂α̂ bzw. h β̂ − n−2,1−α∗ /2 σ̂β̂ , β̂ + n−2,1−α∗ /2 σ̂β̂ (1 − α∗ )-Kondenzintervalle für die Parameter α bzw. i β. Anmerkung: Diese Struktur von Kondenzintervallen ist sehr typisch. θ̂ sei ein Parameterschätzer für einen Parameter θ und σθ̂ sein Standardfehler. θ̂ − θ ∼ σθ̂ h ⇒ θ̂ − N( , z 0 1) für alle zulässigen 1−α/2 Jürgen Dippon (ISA) σθ̂ , θ̂ + z 1−α/2 σθ̂ i θ ist (1 − α)-Kondenzintervall Statistik für Wirtschaftswissenschaftler 13. September 2010 für θ 436 / 464 12. Lineare Regression 12.2. Stochstatisches Modell Beispiel: Kondenzintervall für µ bei bekanntem σ 2 . X , . . . , Xn ∼ N (µ, σ ) 2 Var (X̄n) = σ /n q q X̄n − z σ /n, X̄n + z σ /n = X̄n − z σX̄n , X̄ + z σX̄n 1 . Dann gilt für den Schätzer X̄n 1−α/2 für 2 µ: 2 θ̂ 2 1−α/2 1−α/2 : 1−α/2 sei ein Parameterschätzer für einen Parameter θ und σ̂θ̂ ein Schätzer für seinen Standardfehler. t t θ̂ − θ ∼ m für alle zullässigen θ σ̂θ̂ h i ⇒ θ̂ − m,1−α/2 σ̂θ̂ , θ̂ + m,1−α/2 σ̂θ̂ Jürgen Dippon (ISA) t ist (1 − α)-Kondenzintervall Statistik für Wirtschaftswissenschaftler 13. September 2010 für θ 437 / 464 12.2. Stochstatisches Modell 12. Lineare Regression Anmerkung: i.A. m=n Anzahl der geschätzten Parameter. Beispiel: Kondenzintervall für µ bei unbekanntem σ 2 . X , . . . , Xn ∼ N (µ, σ ) µ : Var (X̄n ) = σ /n 2 1 2 S n . Dann gilt für den Schätzer und σ̂X̄2 = n2 / n X̄n − tn = X̄n − t −1,1−α/2 q Sn /n, X̄n + tn σ̂X̄n , X̄n + tn 2 −1,1−α/2 Jürgen Dippon (ISA) , X̄n für q −1,1−α/2 S n /n 2 −1,1−α/2 σ̂X̄n Statistik für Wirtschaftswissenschaftler 13. September 2010 438 / 464 12.2. Stochstatisches Modell 12. Lineare Regression Viele Statistikprogramme liefern als Ergebnis von komplexeren statistischen t Modellen Schätzwerte für die Parameter und Standardfehler. Wenn die zugehörigen standardisierten Schätzer -verteilt oder asymptotisch normal verteilt sind, kann man obige Kondenzintervallkonstruktion direkt verwenden. Beispiel: College-Absolventen. β . σ̂β̂ = 3.4613 und β̂ = 10.8 bereits früher berechnet. Mit n−2,1−α∗ = 4,0.975 = 2.7764 gilt h i β̂ − n−2,1−α∗ /2 σ̂β̂ , β̂ + n−2,1−α∗ /2 σ̂β̂ t Wir berechnen ein 0.95-Kondenzintervall für wurde t t t = [10.8 − 2.7764 · 3.4613, 10.8 + 2.7764 · 3.4613] = [1.19, 20.41] Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 439 / 464 12. Lineare Regression Falls die Normalverteilungsannahme 12.2. Stochstatisches Modell εi ∼ Konsistenzbedingung n X i =1 x x̄ ( i − )2 → ∞ N( , σ ) 0 für 2 verletzt, aber die n→∞ erfüllt ist, gelten die Verteilungsaussagen für die standardisierten Schätzer auch approximativ. Dann gelten auch die angegebenen Tests und Kondenzintervalle approximativ. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 440 / 464 12. Lineare Regression 12.2. Stochstatisches Modell Beispiel (Fortsetzung): College-Daten. Die nächste Tabelle bezieht sich auf die Streuungszerlegung bei der linearen Regression, n X y ȳ 2 n X } |i =1 {z ( i− ) = |i =1 {z Gesamtstreuung (SQT) Jürgen Dippon (ISA) (ŷi − ȳ ) 2 } Erklärte Streuung (SQE) + n X y ŷ ( i − i )2 |i =1 {z Reststreuung Statistik für Wirtschaftswissenschaftler } (SQR) 13. September 2010 441 / 464 12. Lineare Regression 12.2. Stochstatisches Modell Prognose Ausgehend vom Regressionsmodell Yi = α + βxi + εi interessiert man sich für die Regressionsgerade y (x ) = α + βx x y (x ) : Ŷ (x ) = α̂ + β̂ · x E (Ŷ (x )) = E (α̂ + β̂ · x ) = E (α̂) + E (β̂) · x = α + β· x = y (x ) (x − x̄ ) P σŶ x = Var (Ŷ (x )) = Var (α̂ + β̂ · x ) = . . . = σ n + i (xi − x̄ ) . Ŷ (x ) (x − x̄ ) σ̂Ŷ x = σ̂ +P n i (xi − x̄ ) . für einen Vorgabewert . Schätzung von Dann gilt 2 2 1 2 2 ( ) ist also erwartungstreu und MSE- bzw. schwach konsistent. Die Varianz können wir schätzen mit 2 2 1 2 ( ) Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 2 13. September 2010 442 / 464 12.2. Stochstatisches Modell 12. Lineare Regression Prognose für y(x): Ŷ (x ) = α̂ + β̂ · x ist der Schätzer für Normalverteilungsannahme ist h ein −2,1−α∗ /2 σ̂Ŷ (x ) , (1 − α)-Kondenzintervall y (x ) Y 0 x y (x ) für . Unter der Ŷ (x ) + tn y (x ) −2,1−α∗ /2 σ̂Ŷ (x ) i . beschreibt nur die Mittellage einer Zufallsvariable Regressor wir Ŷ (x ) − tn y (x ) Y 0 , die zu einem 0 erhoben wird. Interessant ist häug der Wertebereich, in dem 0 mir groÿer Wahrscheinlichkeit nden. Dazu muss nicht nur die Mittellage 0 , sondern auch der Schwankung um diese Mittellage mit einem Störterm ε0 Jürgen Dippon (ISA) Rechnung getragen werden. Statistik für Wirtschaftswissenschaftler 13. September 2010 443 / 464 12.2. Stochstatisches Modell 12. Lineare Regression Ansatz: Ỹ 0 wobei = α̂ + β̂ · ε0 x 0 + ε0 = unabhängig von Ŷ (x ) + ε , E (ε ) = 0 0 0 0, 0 2 ε1 , . . . , ε n . Damit ist Var (Ỹ ) = Var (Ŷ (x )) + Var (ε ) = σ 0 Var (ε ) = σ , 0 0 2 1 + 1 n x x̄ x x̄ ( 0 − )2 +P 2 i( i − ) und 2 σ̂Ỹ = σ̂ 0 Jürgen Dippon (ISA) 2 1 + 1 n x x̄ x x̄ ( 0 − )2 +P 2 i( i − ) . Statistik für Wirtschaftswissenschaftler 13. September 2010 444 / 464 Prognose für 12. Lineare Regression Y 0 zu gegebenen x: 12.2. Stochstatisches Modell 0 Unter der Normalverteilungsannahme ist h Ŷ (x ) − tn 0 ein (1 − α)-Kondenz- −2,1−α∗ /2 σ̂Ŷ0 , Ŷ (x ) + tn 0 oder Prognoseintervall für Beispiel: College-Absolventen. 3.5, sx = 2 3.5, σ̂ = 14.461 i Y 0. y (x ) , t Wir berechnen ein 0.95-Kondenzintervall für x̄ = −2,1−α∗ /2 σ̂Ŷ0 0 und 4,0.975 Y 0 zu x 0 = 7. Aus = 2.7764 ergibt sich 2 σ̂Ŷ (7) = σ̂ 2 1 n x x̄ x x̄ ( 0 − )2 +P 2 i( i − ) σ̂Ỹ2 = σ̂ 2 + σ̂Ŷ2 (7) = 391.44, 0 Jürgen Dippon (ISA) = 209.7 · 1 6 (7 − 3.5)2 + 5 · 3.5 σ̂Ŷ (7) = 13.4811, Statistik für Wirtschaftswissenschaftler = 181.74. σ̂Ỹ0 = 19.7848. 13. September 2010 445 / 464 12.2. Stochstatisches Modell 12. Lineare Regression Damit sind und h Ŷ ( ) = α̂ + β̂ · 7 Ŷ ( ) − tn h Ŷ ( ) − tn bzw. 7 = 107.2 + 10.8 · 7 = 182.8, Ŷ t t 4,0.975 = 2.7764, i σ̂Ŷ (7) , (7) + n−2,1−α∗ /2 σ̂Ŷ (7) = [145.37, 220.23] i ∗ ∗ σ̂ σ̂ , ( 7 ) + n−2,1−α /2 Ỹ0 = [127.87, 237.73] −2,1−α /2 Ỹ0 −2,1−α∗ /2 7 7 Ŷ t die gesuchten Kondenzintervalle. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 446 / 464 12. Lineare Regression 12.2. Stochstatisches Modell Abbildung: Prognose und Kondenzintervalle Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 447 / 464 12. Lineare Regression 12.2. Stochstatisches Modell Ŷ (x ) In das Streudiagramm der College-Absolventen wurde in der jedem x Ŷ (x ) Ỹ x= x obenstehenden Abbildung die geschätzte Regressionsgerade 0 die Kondenzintervalle zu 0 und Punkt kennzeichnet den Prognosenpunkt zu 0 Die Kondenzintervalle werden gröÿer, je weiter Jürgen Dippon (ISA) und zu 0 eingezeichnet. Der rote 7. 0 von Statistik für Wirtschaftswissenschaftler x̄ = 3.5 entfernt ist. 13. September 2010 448 / 464 13. Zeitreihen 9 Parameterschätzung 10 Testen von Hypothesen 11 Spezielle Tests 12 Lineare Regression 13 Zeitreihen Indizes Komponentenmodelle Globale Regressionsansätze Lokale Ansätze R Beispiel Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 449 / 464 13. Zeitreihen Zeitreihen Wird ein Merkmal Y y , . . . , yn zu aufeinander folgenden Zeitpunkten erfasst, so bilden die Beobachtungen Y , . . . , Yn 1 Diese Beobachtungen können jeweils als Zufallsvariablen 1 eine t= Zeitreihe. 1, . . . , n eine Realisierung von interpretiert werden. Beispiele: Aktienkurse, Umsätze, Preisindizes, Niederschlagsmessungen,... Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 450 / 464 13. Zeitreihen Häug interessante Fragen: Liegt der Zeitreihe ein Trend in Form einer globalen Funktion in der Zeit zugrunde? Gibt es regelmäÿig wiederkehrende saisonale Schwankungen? Wie hängen zeitlich unterschiedliche Beobachtungen voneinander ab (Korrelation)? Wie kann eine Prognose über den zukünftigen Verlauf der Zeitreihe erstellt werden? Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 451 / 464 13. Zeitreihen 13.1. Indizes Indizes Ein Preisindex soll die zeitliche Preisentwicklung einer groÿen Menge von einzelnen Gütern (aus einem sog. Warenkorb) wiedergeben. pt (i ) qt (i ) Preis von Gut i ∈ { ,...,I} 1 verbrauchte Menge von Gut zum Zeitpunkt i t∈{ , t 0 1, . . . } zum Zeitpunkt Preisindex von Laspeyres P L t = p i g (i ) p i I X t( ) () i =1 0 Jürgen Dippon (ISA) 0 mit g (i ) = PIp (pi )q(j )(qi ) (j ) 0 Statistik für Wirtschaftswissenschaftler 0 0 j =1 0 0 13. September 2010 452 / 464 13.1. Indizes 13. Zeitreihen pt ( i ) p0 (i ) relative Preisänderung von Gut i zum Zeitpunkt t in Bezug auf die Basisperiode 0 g (i ) 0 Anteil der Ausgaben für Gut in der Basisperiode t i im Verhältnis zu den Gesamtausgaben Werden die relativen Preisänderungen mit den relativen Ausgaben zum aktuellen Zeitpunkt gewichtet, erhält man den Preisindex von Paasche P P t = pigi p i I X t( ) t( ) () i =1 0 Jürgen Dippon (ISA) mit gt (i ) = PIpt (pi )q(tj )(qi ) (j ) Statistik für Wirtschaftswissenschaftler j =1 t t 13. September 2010 453 / 464 13.1. Indizes 13. Zeitreihen p (i ) PI L Pt = PIi ppt ((ii ))qq ((ii )) i Durch Kürzen durch erhält man die Aggregatformeln 0 =1 0 =1 0 0 , p iq i p iq i PI P = i =1 t ( ) t ( ) PI t i =1 0 ( ) t ( ) P Der Preisindex von Laspeyres gibt jene Preisänderungen an, die sich bei konstant gehaltenen Verbrauchsmengen aus der Basisperiode ergeben hätten. Der Preisindex von Paasche bezieht sich auf die Verbrauchsmengen in der Berichtsperiode. Werden die Rollen von Preisen und Mengen vertauscht, erhält man Mengenindizes. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 454 / 464 13. Zeitreihen 13.2. Komponentenmodelle Komponentenmodelle Ziel: Zerlegung der Zeitreihe in systematische Komponenten und eine irreguläre Restkomponente Additives Trend-Saison-Modell yt = gt + st + εt , t = gt st 1, . . . , n glatte Komponente: Trend, langfristige systematische Veränderung saisonale Komponente (z.B. tages- oder jahreszeitlich bedingte Schwankungen) εt irreguläre Restkomponente Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 455 / 464 13. Zeitreihen 13.2. Komponentenmodelle Multiplikatives Modell yt = gt · st · εt Kann durch Logarithmusfunktion auf ein additives Modell zurückgeführt werden: ỹt = yt = gt + st + log Jürgen Dippon (ISA) log log log εt Statistik für Wirtschaftswissenschaftler 13. September 2010 456 / 464 13.3. Globale Regressionsansätze 13. Zeitreihen Globale Regressionsansätze Wir betrachten zunächst ein reines additives Trendmodell, yt = gt + εt gt und schätzen die Trendkomponente Populäre globale Trendmodelle: gt = β + β t gt = β + β t + β t gt = β + β t + · · · + βq t q gt = β (β t ) gt = β + β (−β t ) 0 1 0 1 0 1 0 exp 2 1 0 1 exp Jürgen Dippon (ISA) 2 . linearer Trend quadratischer Trend polynomialer Trend exponentieller Trend logistische Sättigungskurve 2 Statistik für Wirtschaftswissenschaftler 13. September 2010 457 / 464 13. Zeitreihen Die Parameter β0 , β1 , . . . bestimmt: 13.3. Globale Regressionsansätze werden mit der Methode der kleinsten Quadrate n X t =1 y g ( t − t )2 → min Soll zusätzlich noch eine Saisonkomponente geschätzt werden, wird die Zeitreihe zunächst trendbereinigt und für ỹt t = , 1, . . . , n ỹt = yt − gt , t = 1, . . . , n , die saisonale Komponente bestimmt. Beispiel: Monatsdaten mit Jahreszyklen Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 458 / 464 13.3. Globale Regressionsansätze 13. Zeitreihen Saisonmodell mit Dummyvariablen st = β s (t ) + · · · + β s (t ), t = 1 1 12 12 1, . . . , n mit Dummyvariablen sj (t ) = t 1 falls 0 sonst zum Monat j gehört Das Saisonmuster für aufeinander folgende Jahre wird also als identisch angenommen (starre Saisongur). Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 459 / 464 13. Zeitreihen Die Monatseekte β1 , . . . , β12 13.3. Globale Regressionsansätze werden dann nach dem KQ-Prinzip geschätzt: n X t =1 (ỹt − st ) 2 = n X t =1 (ỹt − β s (t ) − · · · − β s (t )) 1 1 2 12 12 → min Alternativ kann die Saisonkomponente auch mittels eines trigonometrischen Polynoms ermittelt werden: st = β 0 + 6 X k =1 βk cos Hierbei werden die Koezienten X k π t + γk 5 2 12 cos k =1 β0 , . . . , β6 , γ1 , . . . , γ5 2 k π t 12 mittels KQ-Methode geschätzt. Anstatt die Zeitreihe zunächst trendzubereinigen und dann die Saisonkomponente zu schätzen, können Trend- und Saisonkomponenten simultan nach dem KQ-Prinzip geschätzt werden. Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 460 / 464 13. Zeitreihen 13.4. Lokale Ansätze Lokale Ansätze Globale Ansätze sind für längere Zeitreihen oft zu starr, da sich zeitlich gt verändernde Strukturen schwierig zu berücksichtigen sind. Zur Schätzung des Trends einer Zeitreihe zum Zeitpunkt t herum gebildet: ĝt = q + (yt 1 2 q+ 2 1 −q y y + · · · + t + · · · + t +q ), t =q+ t wird ein lokales arithmetisches Mittel von Zeitreihenwerten um den Zeitpunkt 1, . . . , n−q 1: Ordnung des Durchschnitts st Anschlieÿend kann für die trendbereinigte Zeitreihe Saisonkomponente werden. Jürgen Dippon (ISA) ỹt = yt − ĝt die (evtl. lokal in einem gleitenden Zeitfenster) geschätzt Statistik für Wirtschaftswissenschaftler 13. September 2010 461 / 464 13. Zeitreihen 13.4. Lokale Ansätze Abbildung: Gleitender Durchschnitt von Zinsdaten Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 462 / 464 13. Zeitreihen 13.5. R Beispiel Abbildung: Lineare und exponentielle Trendfunktion Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 463 / 464 14. Literatur Literatur L. Fahrmeir et al.: Springer 2010. Praxis J. Schira: Statistik Der Weg zur Datenanalyse , 7. Auage, Statistische Methoden der VWL und BWL Theorie und , 3. Auage, Pearson Studium 2009 Statistik für Bachelor- und Masterstudenten Eine Einführung für Wirtschafts- und Sozialwissenschaftler W. Zucchini et al.: , Springer 2009 Jürgen Dippon (ISA) Statistik für Wirtschaftswissenschaftler 13. September 2010 464 / 464