Übungsblatt 1 - Mathematische und statistische Grundlagen Prof. Dr. Isabel Schnabel Johannes Gutenberg-Universität Mainz Empirische Wirtschaftsforschung Sommersemester 2011 Auf diesem Übungsblatt beschäftigen wir uns mit den mathematischen und statistischen Grundlagen der Ökonometrie. Wir werden im Laufe der Veranstaltung immer wieder auf diese Grundlagen zurückkommen. Je besser Sie diese Grundlagen beherrschen, desto besser werden Sie in Zukunft mit der Veranstaltung zurechtkommen. Aufgabe 1: Summen Beweisen Sie die folgenden Rechenregeln: (a) Regel 1: n X (Yi − Ȳ ) = 0, (1) i=1 wobei Ȳ folgendermaßen definiert ist: Ȳ = n P 1 n Yi i=1 (b) Regel 2: n n 1X 1X (Xi − X̄)(Yi − Ȳ ) = (Xi − X̄) · Yi n n i=1 i=1 n n i=1 i=1 (2) (c) Regel 3: 1X 1X (Xi − X̄)(Yi − Ȳ ) = Xi · Yi − X̄ · Ȳ n n 1 (3) Empirische Wirtschaftsforschung – Übungsblatt 1 2 (d) Regel 4: n n i=1 i=1 1X 1X 2 (Yi − Ȳ )2 = Yi − Ȳ 2 n n (4) Aufgabe 2: Erwartungswert, Varianz Der (unbedingte) Erwartungswert einer diskreten Zufallsvariable Y lautet E(Y ) = k X yi · pi . (5) i=1 k bezeichnet hierbei die Anzahl der möglichen Ausprägungen von Y . Außerdem gilt für eine beliebige Funktion g der Zufallsvariablen Y : E[g(Y )] = k X g(yi ) · pi . (6) i=1 Die (unbedingte) Varianz einer Zufallsvariable Y lautet var(Y ) = σY2 = E[Y − E(Y )]2 . (7) Hieraus folgt im Falle einer diskreten Zufallsvariable: var(Y ) = σY2 = k X [yi − E(Y )]2 · pi . (8) i=1 Beweisen Sie auf Basis dieser Definitionen die folgenden Regeln. (a) Regel 5: E(a + bY ) = a + b · E(Y ) (9) var(a + bY ) = b2 · var(Y ) (10) var(Y ) = E(Y 2 ) − [E(Y )]2 (11) (b) Regel 6: (c) Regel 7: Empirische Wirtschaftsforschung – Übungsblatt 1 3 Aufgabe 3 (Gemeinsame Verteilungen von Zufallsvariablen) Wir betrachten nun zwei Zufallsvariablen X und Y . Die Kovarianz zwischen X und Y ist folgendermaßen definiert: cov(X, Y ) = σXY = E{[X − E(X)] · [Y − E(Y )]} (12) Im Fall diskreter Zufallsvariablen gilt außerdem für eine beliebige Funktion g von X und Y : E[g(X, Y )] = l X k X g(xi , yj ) · p(xi , yj ). (13) i=1 j=1 p(xi , yj ) bezeichnet die gemeinsame Wahrscheinlichkeit, l und k bezeichnen die Anzahl der möglichen Ausprägungen der beiden Zufallsvariablen X und Y . Also gilt: cov(X, Y ) = l X k X [xi − E(X)] · [yj − E(Y )] · p(xi , yj ). (14) i=1 j=1 Wie für jede Wahrscheinlichkeitsverteilung gilt auch hier, dass die Summe der Wahrscheinlichkeiten über alle möglichen Realisationen des Zufallsexperimentes - d.h. hier über alle möglichen Kombinationen der Ausprägungen der beiden Zufallsvariablen X und Y - gleich 1 ist: l X k X p(xi , yj ) = 1 (15) i=1 j=1 In Abgrenzung zur gemeinsamen Wahrscheinlichkeitsverteilung bezeichnet man p(xi ) und p(yj ) als Randverteilungen. Zwischen der gemeinsamen Wahrscheinlichkeitsverteilung und der Randverteilung bestehen die folgenden Zusammenhänge: l X p(xi , yj ) = p(yj ) (16) i=1 und k X j=1 p(xi , yj ) = p(xi ). (17) Empirische Wirtschaftsforschung – Übungsblatt 1 4 X und Y heißen unabhängig, wenn gilt p(xi , yj ) = p(xi ) · p(yj ). (18) Auf Basis dieser Definitionen und Regeln wollen wir nun die folgenden Regeln beweisen: (a) Regel 8: E(a + bX + cY ) = a + b · E(X) + c · E(Y ) (19) cov(X, Y ) = E(XY ) − E(X)E(Y ) (20) (b) Regel 9: (c) Regel 10: Wenn X und Y unabhängig sind, gilt: E(XY ) = E(X) · E(Y ) (21) Ist Unkorreliertheit für dieses Ergebnis hinreichend? (d) Regel 11: Wenn X und Y unabhängig sind, gilt: cov(X, Y ) = 0 (22) Beachte: Die Umkehrung gilt nicht! (e) Regel 12: var(aX + bY ) = a2 var(X) + b2 var(Y ) + 2ab · cov(X, Y ) (23) (f) Regel 13: var(aX − bY ) = a2 var(X) + b2 var(Y ) − 2ab · cov(X, Y ) (24) Frage: Wie lauten die Regeln 12 und 13 bei Unabhängigkeit von X und Y ? Was gilt bei Unkorreliertheit von X und Y ? (g) Regel 14: cov(aX + b, cY + d) = ac · cov(X, Y ) (25) Empirische Wirtschaftsforschung – Übungsblatt 1 5 Aufgabe 4 (Bedingte Momente) Bedingte Verteilungen und Momente spielen in der Ökonometrie eine zentrale Rolle. Wir betrachten wieder zwei Zufallsvariablen X und Y . Die bedingte Wahrscheinlichkeitsverteilung von Y gegeben X ist für diskrete Zufallsvariaben definiert als p(xi , yj ) p(yj |xi ) = (26) p(xi ) Aus dieser Definition folgt unmittelbar, dass die bedingte Wahrscheinlichkeitsverteilung bei Unabhängigkeit der beiden Zufallsvariablen der Randverteilung entspricht: p(yj |xi ) = p(yj ). (27) Die bedingten Momente basieren auf den bedingten Wahrscheinlichkeitsverteilungen. Der bedingte Erwartungswert ist für diskrete Zufallsvariaben definiert als k X E(Y |X = xi ) = yj · p(yj |xi ). (28) j=1 Analog wird auch zur Berechnung der höheren bedingten Momente die unbedingte Wahrscheinlichkeitsverteilung einfach durch die entsprechende bedingte Verteilung ersetzt. Wir wollen nun die folgenden Ergebnisse beweisen: (a) Regel 15: Bei Unabhängigkeit der Zufallsvariablen X und Y gilt: E(Y |X = xi ) = E(Y ) (29) (b) Regel 16: Gesetz iterierter Erwartungen: EX [E(Y |X = xi )] = E(Y ) (30) E(u|X = xi ) = 0 ⇒ E(u) = 0 (31) (c) Regel 17: (d) Regel 18: (Diese Regel wollen wir hier nicht beweisen, sie wird aber im Verlauf der Veranstaltung oft benötigt.) E(u|X = xi ) = 0 ⇒ cov(u, X) = 0 Die Umkehrung gilt nicht! (32) Empirische Wirtschaftsforschung – Übungsblatt 1 6 Anhang: Regeln für stetige Zufallsvariablen Beachten Sie: Die Regeln für stetige Zufallsvariablen sind vollkommen analog zu denen für diskrete Zufallsvariablen. Auch die Beweise funktionieren analog, da die Rechenregeln für Summen analog auch für Integrale gelten. Der Vollständigkeit halber führen wir hier die Regeln für stetige Zufallsvariablen auf: E(Y ) = +∞ Z y · fY (y)dy (33) −∞ +∞ Z E[g(Y )] = g(y) · fY (y)dy (34) +∞ Z [y − E(Y )]2 · fY (y)dy = (35) −∞ var(Y ) = σY2 −∞ +∞ +∞ Z Z E[g(X, Y )] = g(x, y)f (x, y)dx dy (36) −∞ −∞ +∞ Z +∞ Z [x − E(X)][y − E(Y )]f (x, y)dx dy cov(X, Y ) = (37) −∞ −∞ Bei stetigen Zufallsvariablen gilt, dass das Integral der Dichtefunktion über alle möglichen Realisationen des Zufallsexperimentes - d.h. hier über alle möglichen Kombinationen der Ausprägungen der beiden Zufallsvariablen X und Y - gleich 1 ist: +∞ Z +∞ Z f (x, y)dx dy = 1 (38) −∞ −∞ Zwischen der gemeinsamen Wahrscheinlichkeitsdichte und der Randdichte bestehen die folgenden Zusammenhänge: +∞ Z f (x, y)dx = fY (y) (39) −∞ +∞ Z f (x, y)dy = fX (x) −∞ (40) Empirische Wirtschaftsforschung – Übungsblatt 1 7 X und Y heißen unabhängig, wenn gilt f (x, y) = fX (x) · fY (y). (41) Die bedingte Wahrscheinlichkeitsdichte von Y gegeben X ist definiert als f (y|x) = f (x, y) . fX (x) (42) Aus dieser Definition folgt wiederum, dass die bedingte Wahrscheinlichkeitsdichte bei Unabhängigkeit der beiden Zufallsvariablen der Randdichte entspricht: f (y|x) = fY (y) (43) Der bedingte Erwartungswert ist definiert als +∞ Z E(Y |X = x) = y · f (y|x)dy. −∞ (44)