Ubungsblatt 1 - Chair of Financial Economics

Werbung
Übungsblatt 1 - Mathematische und statistische
Grundlagen
Prof. Dr. Isabel Schnabel
Johannes Gutenberg-Universität Mainz
Empirische Wirtschaftsforschung
Sommersemester 2011
Auf diesem Übungsblatt beschäftigen wir uns mit den mathematischen und
statistischen Grundlagen der Ökonometrie. Wir werden im Laufe der Veranstaltung immer wieder auf diese Grundlagen zurückkommen. Je besser Sie
diese Grundlagen beherrschen, desto besser werden Sie in Zukunft mit der
Veranstaltung zurechtkommen.
Aufgabe 1: Summen
Beweisen Sie die folgenden Rechenregeln:
(a) Regel 1:
n
X
(Yi − Ȳ ) = 0,
(1)
i=1
wobei Ȳ folgendermaßen definiert ist: Ȳ =
n
P
1
n
Yi
i=1
(b) Regel 2:
n
n
1X
1X
(Xi − X̄)(Yi − Ȳ ) =
(Xi − X̄) · Yi
n
n
i=1
i=1
n
n
i=1
i=1
(2)
(c) Regel 3:
1X
1X
(Xi − X̄)(Yi − Ȳ ) =
Xi · Yi − X̄ · Ȳ
n
n
1
(3)
Empirische Wirtschaftsforschung – Übungsblatt 1
2
(d) Regel 4:
n
n
i=1
i=1
1X
1X 2
(Yi − Ȳ )2 =
Yi − Ȳ 2
n
n
(4)
Aufgabe 2: Erwartungswert, Varianz
Der (unbedingte) Erwartungswert einer diskreten Zufallsvariable Y lautet
E(Y ) =
k
X
yi · pi .
(5)
i=1
k bezeichnet hierbei die Anzahl der möglichen Ausprägungen von Y . Außerdem gilt für eine beliebige Funktion g der Zufallsvariablen Y :
E[g(Y )] =
k
X
g(yi ) · pi .
(6)
i=1
Die (unbedingte) Varianz einer Zufallsvariable Y lautet
var(Y ) = σY2 = E[Y − E(Y )]2 .
(7)
Hieraus folgt im Falle einer diskreten Zufallsvariable:
var(Y ) = σY2 =
k
X
[yi − E(Y )]2 · pi .
(8)
i=1
Beweisen Sie auf Basis dieser Definitionen die folgenden Regeln.
(a) Regel 5:
E(a + bY ) = a + b · E(Y )
(9)
var(a + bY ) = b2 · var(Y )
(10)
var(Y ) = E(Y 2 ) − [E(Y )]2
(11)
(b) Regel 6:
(c) Regel 7:
Empirische Wirtschaftsforschung – Übungsblatt 1
3
Aufgabe 3 (Gemeinsame Verteilungen von Zufallsvariablen)
Wir betrachten nun zwei Zufallsvariablen X und Y . Die Kovarianz zwischen
X und Y ist folgendermaßen definiert:
cov(X, Y ) = σXY = E{[X − E(X)] · [Y − E(Y )]}
(12)
Im Fall diskreter Zufallsvariablen gilt außerdem für eine beliebige Funktion
g von X und Y :
E[g(X, Y )] =
l X
k
X
g(xi , yj ) · p(xi , yj ).
(13)
i=1 j=1
p(xi , yj ) bezeichnet die gemeinsame Wahrscheinlichkeit, l und k bezeichnen
die Anzahl der möglichen Ausprägungen der beiden Zufallsvariablen X und
Y . Also gilt:
cov(X, Y ) =
l X
k
X
[xi − E(X)] · [yj − E(Y )] · p(xi , yj ).
(14)
i=1 j=1
Wie für jede Wahrscheinlichkeitsverteilung gilt auch hier, dass die Summe
der Wahrscheinlichkeiten über alle möglichen Realisationen des Zufallsexperimentes - d.h. hier über alle möglichen Kombinationen der Ausprägungen
der beiden Zufallsvariablen X und Y - gleich 1 ist:
l X
k
X
p(xi , yj ) = 1
(15)
i=1 j=1
In Abgrenzung zur gemeinsamen Wahrscheinlichkeitsverteilung bezeichnet
man p(xi ) und p(yj ) als Randverteilungen. Zwischen der gemeinsamen Wahrscheinlichkeitsverteilung und der Randverteilung bestehen die folgenden Zusammenhänge:
l
X
p(xi , yj ) = p(yj )
(16)
i=1
und
k
X
j=1
p(xi , yj ) = p(xi ).
(17)
Empirische Wirtschaftsforschung – Übungsblatt 1
4
X und Y heißen unabhängig, wenn gilt
p(xi , yj ) = p(xi ) · p(yj ).
(18)
Auf Basis dieser Definitionen und Regeln wollen wir nun die folgenden Regeln beweisen:
(a) Regel 8:
E(a + bX + cY ) = a + b · E(X) + c · E(Y )
(19)
cov(X, Y ) = E(XY ) − E(X)E(Y )
(20)
(b) Regel 9:
(c) Regel 10: Wenn X und Y unabhängig sind, gilt:
E(XY ) = E(X) · E(Y )
(21)
Ist Unkorreliertheit für dieses Ergebnis hinreichend?
(d) Regel 11: Wenn X und Y unabhängig sind, gilt:
cov(X, Y ) = 0
(22)
Beachte: Die Umkehrung gilt nicht!
(e) Regel 12:
var(aX + bY ) = a2 var(X) + b2 var(Y ) + 2ab · cov(X, Y )
(23)
(f) Regel 13:
var(aX − bY ) = a2 var(X) + b2 var(Y ) − 2ab · cov(X, Y )
(24)
Frage: Wie lauten die Regeln 12 und 13 bei Unabhängigkeit von X und Y ?
Was gilt bei Unkorreliertheit von X und Y ?
(g) Regel 14:
cov(aX + b, cY + d) = ac · cov(X, Y )
(25)
Empirische Wirtschaftsforschung – Übungsblatt 1
5
Aufgabe 4 (Bedingte Momente)
Bedingte Verteilungen und Momente spielen in der Ökonometrie eine zentrale Rolle. Wir betrachten wieder zwei Zufallsvariablen X und Y . Die bedingte
Wahrscheinlichkeitsverteilung von Y gegeben X ist für diskrete Zufallsvariaben definiert als
p(xi , yj )
p(yj |xi ) =
(26)
p(xi )
Aus dieser Definition folgt unmittelbar, dass die bedingte Wahrscheinlichkeitsverteilung bei Unabhängigkeit der beiden Zufallsvariablen der Randverteilung entspricht:
p(yj |xi ) = p(yj ).
(27)
Die bedingten Momente basieren auf den bedingten Wahrscheinlichkeitsverteilungen. Der bedingte Erwartungswert ist für diskrete Zufallsvariaben
definiert als
k
X
E(Y |X = xi ) =
yj · p(yj |xi ).
(28)
j=1
Analog wird auch zur Berechnung der höheren bedingten Momente die unbedingte Wahrscheinlichkeitsverteilung einfach durch die entsprechende bedingte Verteilung ersetzt.
Wir wollen nun die folgenden Ergebnisse beweisen:
(a) Regel 15: Bei Unabhängigkeit der Zufallsvariablen X und Y gilt:
E(Y |X = xi ) = E(Y )
(29)
(b) Regel 16: Gesetz iterierter Erwartungen:
EX [E(Y |X = xi )] = E(Y )
(30)
E(u|X = xi ) = 0 ⇒ E(u) = 0
(31)
(c) Regel 17:
(d) Regel 18: (Diese Regel wollen wir hier nicht beweisen, sie wird aber im
Verlauf der Veranstaltung oft benötigt.)
E(u|X = xi ) = 0 ⇒ cov(u, X) = 0
Die Umkehrung gilt nicht!
(32)
Empirische Wirtschaftsforschung – Übungsblatt 1
6
Anhang: Regeln für stetige Zufallsvariablen
Beachten Sie: Die Regeln für stetige Zufallsvariablen sind vollkommen analog zu denen für diskrete Zufallsvariablen. Auch die Beweise funktionieren
analog, da die Rechenregeln für Summen analog auch für Integrale gelten.
Der Vollständigkeit halber führen wir hier die Regeln für stetige Zufallsvariablen auf:
E(Y ) =
+∞
Z
y · fY (y)dy
(33)
−∞
+∞
Z
E[g(Y )] =
g(y) · fY (y)dy
(34)
+∞
Z
[y − E(Y )]2 · fY (y)dy
=
(35)
−∞
var(Y ) =
σY2
−∞
+∞
+∞
Z Z
E[g(X, Y )] =
g(x, y)f (x, y)dx dy
(36)
−∞ −∞
+∞ Z
+∞
Z
[x − E(X)][y − E(Y )]f (x, y)dx dy
cov(X, Y ) =
(37)
−∞ −∞
Bei stetigen Zufallsvariablen gilt, dass das Integral der Dichtefunktion über
alle möglichen Realisationen des Zufallsexperimentes - d.h. hier über alle
möglichen Kombinationen der Ausprägungen der beiden Zufallsvariablen X
und Y - gleich 1 ist:
+∞ Z
+∞
Z
f (x, y)dx dy = 1
(38)
−∞ −∞
Zwischen der gemeinsamen Wahrscheinlichkeitsdichte und der Randdichte
bestehen die folgenden Zusammenhänge:
+∞
Z
f (x, y)dx = fY (y)
(39)
−∞
+∞
Z
f (x, y)dy = fX (x)
−∞
(40)
Empirische Wirtschaftsforschung – Übungsblatt 1
7
X und Y heißen unabhängig, wenn gilt
f (x, y) = fX (x) · fY (y).
(41)
Die bedingte Wahrscheinlichkeitsdichte von Y gegeben X ist definiert als
f (y|x) =
f (x, y)
.
fX (x)
(42)
Aus dieser Definition folgt wiederum, dass die bedingte Wahrscheinlichkeitsdichte bei Unabhängigkeit der beiden Zufallsvariablen der Randdichte entspricht:
f (y|x) = fY (y)
(43)
Der bedingte Erwartungswert ist definiert als
+∞
Z
E(Y |X = x) =
y · f (y|x)dy.
−∞
(44)
Herunterladen