0. Grundlagen der Ökonometrie

Werbung
0. Grundlagen der Ökonometrie
Literaturempfehlung:
• J. M. Wooldridge (2008), Introductory Econometrics: A
modern approach, Cengage Learning Emea, 4th ed.
• L. von Auer (2011), Ökonometrie: Eine Einführung,
Springer, 5. Aufl.
0.1 Struktur ökonomischer Daten
Querschnittsdaten:
• Daten, die zu einem Zeitpunkt (der gelegentlich auch etwas variieren kann)
an einer Untersuchungseinheit erhoben werden (die Anordnung der Einheiten im Datensatz spielt dabei für die Analyse keine Rolle)
• Ausgangspunkt ist meist die implizite Annahme, dass es sich bei der Erhebung um eine Zufallsstichprobe handelt
• Beispiele: Personen- oder Haushaltsdaten (z.B. Einkommen), Unternehmensdaten (z.B. Umsätze), Städte- oder Länderdaten (z.B. Arbeitslosigkeit)
--------------------------------------------------------------------------------------------------------Beispiel:
Beobachtungsnummer
1
2
3
:
10
11
12
Land
A
B
C
:
J
K
L
Bevölkerungsdichte
212,4
623,7
93,1
:
287,4
166,2
388,1
BIP pro
Einwohner
20116
24966
19324
:
23136
20707
23624
Erwerbstät.
Landwirt.
9,8
3,4
23,6
:
8,8
14,1
9,6
Wachstum
BIP
53
73,1
47,9
:
59,4
74
54,3
Geburtenziffer
8,4
6,1
12,3
:
12,4
13
6,9
Wanderungssaldo
-0,7
3,4
-1,9
:
1,7
3,6
-0,4
--------------------------------------------------------------------------------------------------------2
Zeitreihendaten:
• Daten, die bei einer Variablen oder verschiedenen Variablen über mehrere
aufeinander folgende Zeitperioden erhoben werden
• Zeit ist hier eine wichtige Dimension (d.h. Beobachtungen sind meist über
die Zeit korreliert), so dass die Anordnung der Beobachtungen im Datensatz
potentiell wichtige Informationen enthält
• Die Häufigkeit der Datensammlung über die Zeit kann stark variieren, z.B.
täglich, wöchentlich, monatlich, quartalsweise oder jährlich mit möglichen
Saisoneffekten bei unterjährigen Daten
• Beispiele: Makroökomische Daten (z.B. Einkommen, Konsum, Investitionen,
Geldangebot, Preisindex), Finanzmarktdaten (z.B. Aktienkurse)
--------------------------------------------------------------------------------------------------------Beispiel:
Beobachtungsnummer
Jahr
Inflation USA
Arbeitslosenquote USA
1
2
1948
1949
8,1
-1,2
3,8
5,9
3
1950
1,3
5,3
4
1951
7,9
3,3
:
:
:
:
54
2001
2,8
4,7
55
2002
1,6
5,8
3
---------------------------------------------------------------------------------------------------------
Aggregierte (gepoolte) Querschnittsdaten:
• Daten, die sowohl Querschnitts- als auch Zeitreiheneigenschaften aufweisen, da mehrere Querschnittsdatensätze unabhängig voneinander über verschiedene Perioden erhoben und zur Erhöhung des Stichprobenumfangs
miteinander verknüpft werden
• Obwohl die Anordnung der Beobachtungen im Datensatz nicht wesentlich
ist, wird die entsprechende Periode als wichtige Variable erfasst
• Daten werden meist wie herkömmliche Querschnittsdaten analysiert
• Beispiele: Personen- oder Haushaltsdaten (z.B. Einkommen, Ausgaben) in
verschiedenen Jahren
--------------------------------------------------------------------------------------------------------Beispiel:
Beobachtungsnummer
Jahr
Hauspreis
Vermögenssteuer
Grundstücksgröße
1
2
1993
1993
85500
67300
42
36
1600
1440
:
:
:
:
:
250
1993
243600
41
2600
251
1995
65000
16
1250
:
:
:
:
:
520
1995
57200
16
1100
---------------------------------------------------------------------------------------------------------4
Paneldaten:
• Daten, die sowohl eine Zeitreihen- als auch eine Querschnittsdimension haben, wobei hier im Unterschied zu aggregierten Querschnittsdaten dieselben Untersuchungseinheiten (z.B. Personen, Unternehmen, Länder) über
mehrere Zeitperioden beobachtet werden
• Oft ist die Anzahl der Einheiten deutlich größer als die Zeitdimension
• Anordnung der Daten erfolgt oft erst nach Einheiten und dann Perioden
• Daten bieten die Möglichkeit für nicht beobachtbare Charakteristika der Einheiten zu kontrollieren sowie verzögerte Reaktionen zu untersuchen
• Beispiele: Personen- oder Haushaltspaneldaten (z.B. SOEP), Unternehmenspaneldaten (z.B. MIP), Länderpaneldaten
--------------------------------------------------------------------------------------------------------Beispiel:
Beobachtungsnummer
1
2
3
4
:
299
300
Haushalt
1
1
2
2
:
150
150
Jahr
2000
2005
2000
2005
:
2000
2005
Größe
5
6
2
2
:
3
4
Nettoeinkommen
3200
3500
2900
3000
:
1793
2380
Raucherhaushalt
ja
ja
nein
nein
:
nein
nein
5
---------------------------------------------------------------------------------------------------------
0.2 Lineare Regressionsmodelle (mit Querschnittsdaten)
Multiples lineares Regressionsmodell
y = β 0 + β1x1 + β 2 x 2 + β 3 x 3 +
+ β k-1x k-1 + β k x k + ε
Dabei gilt:
y: Endogene, erklärte oder abhängige Variable
x1, x2, …, xk-1, xk: Exogene, erklärende oder unabhängige Variablen
β0: Konstante
β1: Dieser Parameter misst den Effekt einer Veränderung von x1 auf y, falls alle
anderen beobachteten und unbeobachteten Faktoren konstant sind
…
βk: Dieser Parameter misst den Effekt einer Veränderung von xk auf y, falls alle
anderen beobachteten und unbeobachteten Faktoren konstant sind
ε: Störterm
Wesentliche Annahme für den Störterm ε:
E(ε|x1 , x 2 ,
, xk ) = 0
Diese Annahme besagt, dass der Störterm ε im Erwartungswert von den erklärenden Variablen x1, x2, …, xk unabhängig (mean independent) ist.
6
Für die weitere Analyse linearer Regressionsmodelle benötigt man eine Stichprobe vom Umfang n aus der Grundgesamtheit.
Multiples lineares Regressionsmodell mit k erklärenden Variablen:
{(xi1, xi2,…, xik, yi), i = 1,…, n}
Unter Einbeziehung der Beobachtungen i = 1,…, n ergibt sich folgendes lineares Regressionsmodell:
y i = β0 + β1x i1 + β 2 x i2 +
+ β k x ik + ε i
Dabei ist z.B. xik der Wert der erklärenden Variablen k bei Beobachtung i.
Wesentliche Aufgabe der Regressionsanalyse:
Schätzung der unbekannten Regressionsparameter β0, β1, β2,…
Methode der kleinsten Quadrate
Optimierungsproblem bei der Methode der kleinsten Quadrate im multiplen linearen Regressionsmodell:
n
min
 0 , 1 ,  2 ,...,  k
 (y -  -  x
i
0
1 i1
-  2 x i2 - ... -  k x ik ) 2
i=1
7
Daraus folgen die Bedingungen erster Ordnung für die k+1 geschätzten Regressionsparameter:
n
 (y - βˆ - βˆ x
i
0
1 i1
- βˆ 2 x i2 -
- βˆ k x ik ) = 0
i=1
n
x
i1
(yi - βˆ 0 - βˆ 1x i1 - βˆ 2 x i2 -
- βˆ k x ik ) = 0
i2
(yi - βˆ 0 - βˆ 1x i1 - βˆ 2 x i2 -
- βˆ k x ik ) = 0
ik
(yi - βˆ 0 - βˆ 1x i1 - βˆ 2 x i2 -
- βˆ k x ik ) = 0
i=1
n
x
i=1
...
n
x
i=1
OLS-Regressionswerte („fitted values“) sind geschätzte Werte der abhängigen
Variablen:
ŷ i = βˆ 0 + βˆ 1x i1 + βˆ 2 x i2 +
+ βˆ k x ik für i = 1,
,n
OLS-Regressionsfunktion:
ŷ = βˆ 0 + βˆ 1x1 + βˆ 2 x 2 +
+ βˆ k x k
8
Interpretation der geschätzten Parameter in multiplen linearen Regressionsmodellen:
ŷ = βˆ 0 + βˆ 1x1 + βˆ 2 x 2 + + βˆ k x k
ŷ = βˆ 1x1 + βˆ 2 x 2 + + βˆ k x k
Der geschätzte Parameter für die erklärende Variable x1 gibt die Veränderung
des Regressionswertes an, falls x1 um eine Einheit steigt und alle anderen erklärenden Variablen x2, x3, x4,…, xk konstant gehalten werden, d.h.:
ŷ = βˆ 1x1
Der geschätzte Parameter für die erklärende Variable x2 gibt die Veränderung
des Regressionswertes an, falls x2 um eine Einheit steigt und alle anderen erklärenden Variablen x1, x3, x4,…, xk konstant gehalten werden, d.h.:
ŷ = βˆ 2 x 2
Die geschätzten Parameter können somit als geschätzte partielle Effekte interpretiert werden, d.h. bei der Schätzung des Effektes einer Variablen wird für die
anderen erklärenden Variablen kontrolliert. Der große Vorteil der Regressionsanalyse (bzw. allgemein ökonometrischer Analysen) ist somit, dass eine ceteris
paribus Betrachtung vorgenommen werden kann, ohne dass ein kontrolliertes
Experiment durchgeführt werden muss.
9
Residuen (geschätzte Störterme): Differenz zwischen den tatsächlich beobachteten Werten der abhängigen Variablen und der OLS-Regressionswerte.
εˆ i = y i - yˆ i = y i - βˆ 0 - βˆ 1x i1 - βˆ 2 x i2 -
- βˆ k x ik für i = 1,…, n
Alternative Darstellung linearer Regressionsmodelle:
y i = yˆ i + εˆ i = βˆ 0 + βˆ 1x i1 + βˆ 2 x i2 +
+ βˆ k x ik + εˆ i für i = 1,…, n
Gesamte Abweichungsquadratsumme (Variation der endogenen Variable bzw.
„total sum of squares“) :
n
SST =
 (y - y)
2
i
i=1
Erklärte Abweichungsquadratsumme (Teil der Variation, der durch die Werte der
exogenen Variablen erklärt wird bzw. „explained sum of squares“):
n
SSE =
n
 (yˆ i - y)ˆ =
2
ˆ
(y
y)
 i
i=1
i=1
2
Residualabweichungsquadratsumme (Teil der Variation, der nicht auf die Werte
der exogenen Variablen zurückzuführen ist bzw. „residual sum of squares“):
n
SSR =
n
 (εˆ i - ε)ˆ =
2
ˆ
ε
i
i=1
i=1
2
Es gilt: SST = SSE + SSR bzw.
SSR
SSE
+
=1
SST
SST
10
Bestimmtheitsmaß (Determinationskoeffizient): Anteil der Variation der abhängigen Variablen yi, der durch die OLS-Regressionsfunktion erklärt wird
R2 =
SSE
SSR
=1SST
SST
Das Bestimmtheitsmaß entspricht auch dem quadrierten Korrelationskoeffizienten zwischen den abhängigen Variablen und den OLS-Regressionswerten:
2
2




ˆ
ˆ
ˆ
(y
y)(y
y)
(y
y)(y
y)
i
i
 i

 i

2
i=1
i=1




R = n
=
n
n

 n
2 
2
2 
2
ˆ
ˆ
ˆ
(y
y)
(y
y)
(y
y)
(y
y)
 i
 i
  i
 i

 i=1
  i=1
  i=1
  i=1

n
n
Eigenschaften des Bestimmtheitsmaßes:
• 0 ≤ R2 ≤ 1
• R2 sinkt niemals, wenn eine weitere (möglicherweise irrelevante) erklärende
Variable hinzugefügt wird (da SSR in diesem Fall niemals ansteigt)
• Aus diesem Grund ist R2 ein schlechtes Maß zur Beurteilung der Güte eines
linearen Regressionsmodells (auch das angepasste Bestimmtheitsmaß, das
die Anzahl der erklärenden Variablen berücksichtigt, ist kein generell geeignetes Maß zur Beurteilung der Güte eines linearen Regressionsmodells)
11
--------------------------------------------------------------------------------------------------------Beispiel: Erklärung von Löhnen (I)
Mit Hilfe eines linearen Regressionsmodells soll der Effekt der Ausbildungszeit
in Jahren (educ), der Berufserfahrung in Jahren (exper) und der Betriebszugehörigkeit in Jahren (tenure) auf den Logarithmus des Stundenlohns (logwage)
untersucht werden:
logwage = β0 + β1educ + β 2exper + β3tenure + ε
Dabei wurde folgende OLS-Regressionsfunktion geschätzt:
ˆ
logwage=
0,284 + 0,092educ + 0,0041exper + 0,022tenure
Interpretation:
• Geschätzter positiver Einfluss der Ausbildungszeit: Falls exper und tenure
konstant gehalten werden, führt eine um ein Jahr höhere Ausbildungszeit zu
einer erwarteten Erhöhung des Logarithmus des Lohnes um 0,092
• Entsprechend liegen geschätzte positive Effekte von exper und tenure vor,
wenn jeweils die anderen erklärenden Variablen konstant gehalten werden
---------------------------------------------------------------------------------------------------------
12
--------------------------------------------------------------------------------------------------------Beispiel: Erklärung von Löhnen (II)
(STATA-Output)
reg logwage educ exper tenure
Source |
SS
df
MS
-------------+-----------------------------Model | 46.8741806
3 15.6247269
Residual | 101.455582
522 .194359353
-------------+-----------------------------Total | 148.329763
525 .282532881
Number of obs
F( 3,
522)
Prob > F
R-squared
Adj R-squared
Root MSE
=
=
=
=
=
=
526
80.39
0.0000
0.3160
0.3121
.44086
-----------------------------------------------------------------------------logwage |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------educ |
.092029
.0073299
12.56
0.000
.0776292
.1064288
exper |
.0041211
.0017233
2.39
0.017
.0007357
.0075065
tenure |
.0220672
.0030936
7.13
0.000
.0159897
.0281448
_cons |
.2843595
.1041904
2.73
0.007
.0796755
.4890435
------------------------------------------------------------------------------
---------------------------------------------------------------------------------------------------------
13
0.3 Erwartungswert und Varianz von OLS-Schätzern
Annahmen zur Betrachtung des Erwartungswerts von OLS-Schätzern:
• Annahme A1: Linearität in den Parametern
Der Zusammenhang zwischen der abhängigen Variablen y und den erklärenden Variablen x1, x2,…, xk ist linear in den Parametern, d.h. es gilt also
y = β0 + β1x1 + β2x2 +…+ βkxk + ε
• Annahme A2: Zufallsstichprobe
Es liegt eine zufällige Stichprobe vom Umfang n aus der Grundgesamtheit
vor mit {(xi1, xi2,…, xik, yi), i = 1,…, n}, so dass für eine zufällig ausgewählte
Beobachtung i gilt: yi = β0 + β1xi1 + β2xi2 +…+ βkxik + εi
• Annahme A3: Keine perfekte Kollinearität
In der Stichprobe (und daher auch in der Grundgesamtheit) ist keine der erklärenden Variablen konstant und es besteht keine exakte lineare Beziehung zwischen den erklärenden Variablen
• Annahme A4: Bedingter Erwartungswert von ε ist null
Es gilt also E(ε|x1, x2,…, xk) = 0
Unter diesen vier Annahmen sind alle mit der OLS-Methode geschätzten Parameter erwartungstreu, d.h.:
E(βˆ h ) = βh für h = 0, 1,…, k
14
Annahmen zur Betrachtung der Varianz von OLS-Schätzern:
• Annahmen A1 bis A4
• Annahme A5: Homoskedastizität
Die bedingte Varianz des Fehlerterms ε ist konstant, d.h. es gilt
Var(ε|x1, x2,…, xk) = σ2. Falls dies nicht zutrifft, d.h. wenn die Varianz von
den erklärenden Variablen abhängt, liegt Heteroskedastizität vor.
→ Die Annahmen A1 bis A5 werden (im Falle von Regressionsanalysen mit
Querschnittsdaten) auch als Gauss-Markov-Annahmen bezeichnet
Damit ergibt sich unter den Annahmen A1 bis A5 für die Varianz der mit OLS
geschätzten Steigungsparameter in linearen Regressionsmodellen:
Var(βˆ h ) =
σ2
n
(1-R 2h ) (x ih -x h ) 2
σ2
=
(1-R 2h )SSTh
für h = 1,…, k
i=1
Dabei stellt Rh2 das Bestimmtheitsmaß bei einer Regression von xh auf alle anderen erklärenden Variablen (einschließlich einer Konstante) dar.
→ Während die Annahme der Homoskedastizität unwesentlich für die Erwartungstreue der geschätzten Parameter ist, gilt obige Varianz nur unter dieser Annahme, nicht aber bei Heteroskedastizität
15
Schätzung der Varianz σ2 des Fehlerterms ε:
Die Schätzung von σ2 ist die Grundlage für die Schätzung der Varianz der (mit
OLS) geschätzten Regressionsparameter
Da σ2 = E(ε2), wäre folgender Schätzer für σ2 denkbar:
1 n 2 SSR
ε̂ i =

n i=1
n
Allerdings ist dieser Schätzer verzerrt. Ein erwartungstreuer Schätzer ergibt
sich folgendermaßen:
1 n 2
SSR
ˆ
σ̂ =
ε
=
 i n-k-1
n-k-1 i=1
2
Der (zwar nicht erwartungstreue, aber konsistente, siehe später) Schätzer für
die Standardabweichung σ des Fehlerterms ε („standard error of the
regression, SER“) lautet dann:
σˆ = σˆ =
2
1 n 2
εˆ i

n-k-1 i=1
16
Damit kann nun die Varianz der mit OLS geschätzten Steigungsparameter in
linearen Regressionsmodellen erwartungstreu geschätzt werden:
2
σ̂
ˆ ˆh) =
Var(β
(1-R 2h )SSTh
für h = 1,…, k
Standardabweichung der mit OLS geschätzten Steigungsparameter:
Var(βˆ h ) =
σ
2
h
für h = 1,…, k
(1-R )SSTh
Die Standardabweichung kann dann folgendermaßen geschätzt werden:
ˆ ˆh) =
Var(β
σ̂
2
h
für h = 1,…, k
(1-R )SSTh
Wichtig ist dabei, dass die Verwendung dieser Schätzer insbesondere auf der
Annahme A5 der Homoskedastizität beruht. Bei Heteroskedastizität liegt dagegen eine verzerrte Schätzung für die Varianz der mit OLS geschätzten Steigungsparameter vor (obwohl Heteroskedastizität keinen Einfluss auf die Erwartungstreue der geschätzten Regressionsparameter hat).
17
Falls die Annahmen A1 bis A5 gelten, ergibt sich:
Die OLS-Schätzer sind die besten linearen unverzerrten Schätzer der Regressionsparameter in linearen Regressionsmodellen („BLUE, best linear unbiased
estimator“)
Bestandteile von BLUE:
• „Unverzerrt“ bedeutet, dass der Schätzer erwartungstreu ist
• „Linear“ bedeutet, dass der Schätzer eine lineare Funktion der Daten und
der abhängigen Variablen darstellt
• „Beste“ bedeutet, dass der Schätzer die geringste Varianz besitzt
Im Einklang mit dem Gauss-Markov-Theorem haben OLS-Schätzer damit in
der Klasse aller linearen und unverzerrten Schätzer die geringste Varianz. Voraussetzung für diese Eigenschaft ist aber die Gültigkeit aller zuvor betrachteten
Annahmen A1 bis A5.
18
0.4 Testen von Hypothesen über Regressionsparameter
Zusätzliche Annahme A6: Normalverteilung
Der Störterm ε ist von den erklärenden Variablen x1, x2, …, xk unabhängig und
normalverteilt mit einem Erwartungswert von null und einer Varianz von σ2, d.h.
es gilt: ε ~ N(0; σ2)
→ Die Annahmen A1 bis A6 werden auch als klassische lineare Modellannahmen bezeichnet. Der Ansatz wird dementsprechend auch als klassisches
lineares Regressionsmodell bezeichnet.
Mit den Annahmen A1 bis A6 gilt für die abhängige Variable:
y|x1 , x 2 ,…, x k
N( β0 + β1x1 + β2 x 2 +
+ βk x k ; σ 2 )
Es ergibt sich:
Die OLS-Schätzer sind die besten unverzerrten Schätzer der Regressionsparameter in linearen Regressionsmodellen („BUE, best unbiased estimator“).
Damit haben die OLS-Schätzer nicht nur in der Klasse aller linearen unverzerrten Schätzer die geringste Varianz, sondern in der Klasse aller unverzerrten
Schätzer.
19
Falls Annahme A6 und damit ein normalverteilter Störterm vorliegt, sind auch
die mit OLS geschätzten Steigungsparameter in linearen Regressionsmodellen normalverteilt, d.h. es gilt (h = 1,…, k):
βˆ h
N[β h ; Var(βˆ h )] bzw. βˆ h




σ2
N β h ;

n

(1-R 2h ) (x ih -x h ) 2 


i=1
Damit ergibt sich (h = 1,…, k):
βˆ h -β h
Var(βˆ h )
βˆ h -β h
σ
N(0; 1) bzw.
N(0; 1)
n
(1-R ) (x ih -x h ) 2
2
h
i=1
Zudem gilt, dass jede lineare Funktion der mit OLS geschätzten Regressionsparameter β0, β1,…, βk auch normalverteilt ist.
20
Allerdings sind die Varianzen oder Standardabweichungen der mit OLS geschätzten Steigungsparameter in linearen Regressionsmodellen in der Regel
nicht bekannt und müssen deshalb geschätzt werden. Falls die Annahmen A1
bis A6 gelten, ergibt sich:
βˆ h -β h
ˆ ˆh)
Var(β
βˆ h -β h
σ̂
t n-k-1 bzw.
t n-k-1
n
(1-R ) (x ih -x h ) 2
2
h
i=1
Dabei ist k+1 die Anzahl der unbekannten Regressionsparameter.
t-Test
Die wichtigste zu testende Nullhypothese in empirischen Anwendungen lautet:
H 0 : β h = 0 für h = 1,…, k
Die Nullhypothese über den Steigungsparameter βh impliziert, dass die erklärende Variable xh keinen partiellen Effekt auf die abhängige Variable y hat. Als
Prüfgröße wird hierzu folgende t-Statistik (t-Wert) betrachtet, die die geschätzte
Standardabweichung des geschätzten Parameters einbezieht:
t = t βˆ = t h =
h
β̂ h
ˆ ˆh)
Var(β
21
Die t-Statistik ist bei Gültigkeit der Nullhypothese t-verteilt mit n-k-1 Freiheitsgraden. In empirischen Analysen wird bei der Überprüfung von H0: βh = 0 in der
Regel eine zweiseitige Fragestellung untersucht. Dabei gilt für die Alternativhypothese:
H1: β h  0 für h = 1,…, k
Die Nullhypothese wird somit verworfen, falls gilt:
t > t n-k-1;1-α/2
Verallgemeinerung der Nullhypothese:
H 0 : β h = a h für h = 1,…, k
Die Nullhypothese wird verworfen, wenn βh deutlich von ah abweicht. Als Prüfgröße wird jetzt folgende allgemeinere t-Statistik betrachtet:
t=
β̂ h -a h
ˆ ˆh)
Var(β
Bei Gültigkeit von H0: βh = ah ist die t-Statistik wiederum t-verteilt mit n-k-1 Freiheitsgraden. Die Nullhypothese H0: βh = ah wird somit bei einem Signifikanzniveau von α zugunsten der Alternativhypothese H1: βh ≠ ah verworfen, falls gilt:
|t| > tn-k-1;1-α/2.
22
--------------------------------------------------------------------------------------------------------Beispiel: Effekt von Luftverschmutzung auf Immobilienpreise (I)
Mit einem linearen Regressionsmodell soll mit einer Stichprobe von n = 506
Gemeinden der Effekt des Logarithmus der Stickoxide in der Luft (lognox), des
Logarithmus der gewichteten Entfernung zu fünf Beschäftigungszentren
(logdist), der durchschnittlichen Anzahl an Räumen in Häusern (rooms) und
des Verhältnisses von Lehrern und Schülern in den Schulen (stratio) auf den
Logarithmus des Medians der Immobilienpreise (logprice) untersucht werden:
logprice = β0 + β1lognox + β 2logdist + β3rooms + β4stratio + ε
Dabei wurde folgende OLS-Regressionsfunktion geschätzt (R2 = 0,584):
ˆ
logprice
= 11,08 - 0,954lognox - 0,134logdist + 0,255rooms - 0,052stratio
(0,32) (0,117)
(0,043)
(0,019)
(0,006)
Aufgrund der recht hohen einfachen t-Werte haben alle erklärenden Variablen
bei üblichen Signifikanzniveaus (z.B. 0,05, 0,01) einen signifikanten Effekt. Eine weitere interessante Nullhypothese bezieht sich auf die Überprüfung, ob β1
dem Wert -1 entspricht, d.h. H0: β1 = -1. Dabei ergibt sich t = (-0,954+1)/0,117
= 0,393. Damit kann bei üblichen Signifikanzniveaus die Nullhypothese nicht
verworfen werden (d.h. die geschätzte Elastizität unterscheidet sich nicht signifikant vom Wert -1).
23
---------------------------------------------------------------------------------------------------------
--------------------------------------------------------------------------------------------------------Beispiel: Effekt von Luftverschmutzung auf Immobilienpreise (II)
(STATA-Output)
reg logprice lognox logdist rooms stratio
Source |
SS
df
MS
-------------+-----------------------------Model | 49.3987581
4 12.3496895
Residual | 35.1834907
501 .070226528
-------------+-----------------------------Total | 84.5822488
505 .167489602
Number of obs
F( 4,
501)
Prob > F
R-squared
Adj R-squared
Root MSE
=
=
=
=
=
=
506
175.86
0.0000
0.5840
0.5807
.265
-----------------------------------------------------------------------------logprice |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------lognox | -.9535397
.1167418
-8.17
0.000
-1.182904
-.7241759
logdist |
-.13434
.0431032
-3.12
0.002
-.2190254
-.0496547
rooms |
.254527
.0185303
13.74
0.000
.2181203
.2909338
stratio | -.0524512
.0058971
-8.89
0.000
-.0640373
-.0408651
_cons |
11.08386
.3181115
34.84
0.000
10.45887
11.70886
------------------------------------------------------------------------------
---------------------------------------------------------------------------------------------------------
24
Es lassen sich auch Hypothesen über Linearkombinationen von Regressionsparametern testen. Mit beliebigen Werten r1, r2,…,rk und c kann die Nullhypothese folgendermaßen spezifiziert werden:
H 0 : r1β1 + r2β 2 +
+ rkβ k = c bzw. H 0 : r1β1 + r2β 2 +
+ rkβ k - c = 0
Mit einem Schätzer der Varianz der Linearkombination der Parameter ergibt
sich folgende t-Statistik, die bei Gültigkeit der Nullhypothese t-verteilt ist mit nk-1 Freiheitsgraden:
t=
r1βˆ 1 +
+ rkβˆ k - c
ˆ 1βˆ 1 + + rkβˆ k )
Var(r
Eine häufig betrachtete Nullhypothese ist die Überprüfung der Gleichheit zweier Parameter, z.B.:
H 0 : β1 = β 2 bzw. H 0 : β1 - β 2 = 0
Die t-Statistik lautet:
t=
βˆ 1 -βˆ 2
ˆ ˆ 1 -βˆ 2 )
Var(β
H0 wird also bei einem Signifikanzniveau von α (in zweiseitigen Fragestellungen) verworfen, falls |t| > tn-k-1;1-α/2.
25
F-Test
Schließlich lassen sich auch multiple lineare Restriktionen überprüfen. Ausgangspunkt ist folgendes (unrestringiertes) lineares Regressionsmodell:
y = β0 + β1x1 + β 2 x 2 +
+ βkx k + ε
Bei der Überprüfung, ob q erklärende Variablen gemeinsam keinen Effekt auf
die abhängige Variable haben, gilt für die Nullhypothese:
H 0 : β k-q+1 = 0, β k-q+2 = 0,
, β k = 0 bzw. H 0 : β k-q+1 = β k-q+2 =
= βk = 0
Das unter H0 restringierte lineare Regressionsmodell lautet dann:
y = β0 + β1x1 + β 2 x 2 +
+ β k-q x k-q + ε
Als Prüfgröße für den F-Test wird folgende F-Statistik (F-Wert) betrachtet:
SSR r -SSR ur
SSR r -SSR ur n-k-1
q
F=
=
SSR ur
SSR ur
q
n-k-1
Bei Gültigkeit von H0 ist diese Prüfgröße F-verteilt mit q (d.h. der Anzahl der
überprüften Ausschlussrestriktionen) und n-k-1 Freiheitsgraden, d.h.: F
Fq;n-k-1
H0: βk-q+1 = βk-q+2 =⋯= βk = 0 wird bei einem Signifikanzniveau von α zugunsten
26
der Alternativhypothese verworfen, falls F > Fq;n-k-1;1-α.
Alternative Darstellung der F-Statistik mit den Bestimmtheitsmaßen R2r und
R2ur der restringierten und unrestringierten linearen Regressionsmodelle:
R 2ur -R 2r
R 2ur -R 2r n-k-1
q
F=
=
2
1-R ur
1-R 2ur
q
n-k-1
Der am häufigsten betrachtete F-Test bezieht sich auf die Untersuchung der
folgenden Nullhypothese:
H 0 : β1 = β 2 =
= βk = 0
Dadurch ergibt sich folgendes restringiertes lineares Regressionsmodell:
y = β0 + ε
Für solche restringierten linearen Regressionsmodelle erhält man R2r = 0, so
dass sich aufgrund der q = k vorliegenden Ausschlussrestriktionen folgende
spezifische F-Statistik ergibt (wobei R2 das gewöhnliche Bestimmtheitsmaß bei
einem linearen Regressionsmodell mit k erklärenden Variablen darstellt):
R2
R 2 n-k-1
k
F=
=
2
1-R
1-R 2 k
n-k-1
27
--------------------------------------------------------------------------------------------------------Beispiel: Erklärung von Geburtsgewichten (I)
Mit Hilfe eines linearen Regressionsmodells soll der Effekt der durchschnittlichen Anzahl der von der Mutter während der Schwangerschaft gerauchten Zigaretten (cigs), der Geburtsrangfolge des Kindes (parity), des jährlichen Familieneinkommens (faminc), der Anzahl der Schuljahre der Mutter (motheduc)
und der Anzahl der Schuljahre des Vaters (fatheduc) auf das Geburtsgewicht
des Kindes (bwght) untersucht werden:
bwght = β0 + β1cigs + β 2 parity + β3faminc + β 4 motheduc + β5fatheduc + ε
Dabei soll zu einem Signifikanzniveau von 0,05 die Nullhypothese überprüft
werden, dass die elterliche Anzahl der Schuljahre keinen Einfluss auf das Geburtsgewicht hat, d.h. H0: β4 = β5 = 0:
• Für n = 1191 Geburten werden das unrestringierte und das restringierte Regressionsmodell mit OLS geschätzt. Dabei ergibt sich R2r = 0,0364 und
R2ur = 0,0387.
• Da n-k-1 = 1191 - 6 = 1185 und q = 2 ergibt sich für die F-Statistik:
F = [(0,0387-0,0364)/(1-0,0387)](1185/2) = 1,42
• Der Schrankenwert aus der F-Verteilung mit 2 und 1185 Freiheitsgraden beträgt F2;1185;0,95 = 3,00. Damit kann die Nullhypothese zum 5%-Signifikanzniveau nicht verworfen werden.
28
---------------------------------------------------------------------------------------------------------
--------------------------------------------------------------------------------------------------------Beispiel: Erklärung von Geburtsgewichten (II)
(STATA-Output)
reg bwght cigs parity faminc motheduc fatheduc
Source |
SS
df
MS
-------------+-----------------------------Model | 18705.5567
5 3741.11135
Residual | 464041.135 1185 391.595895
-------------+-----------------------------Total | 482746.692 1190 405.669489
Number of obs
F( 5, 1185)
Prob > F
R-squared
Adj R-squared
Root MSE
=
=
=
=
=
=
1191
9.55
0.0000
0.0387
0.0347
19.789
-----------------------------------------------------------------------------bwght |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------cigs | -.5959362
.1103479
-5.40
0.000
-.8124352
-.3794373
parity |
1.787603
.6594055
2.71
0.007
.4938709
3.081336
faminc |
.0560414
.0365616
1.53
0.126
-.0156913
.1277742
motheduc | -.3704503
.3198551
-1.16
0.247
-.9979957
.2570951
fatheduc |
.4723944
.2826433
1.67
0.095
-.0821426
1.026931
_cons |
114.5243
3.728453
30.72
0.000
107.2092
121.8394
------------------------------------------------------------------------------
---------------------------------------------------------------------------------------------------------
29
--------------------------------------------------------------------------------------------------------Beispiel: Erklärung von Geburtsgewichten (III)
(STATA-Output)
reg bwght cigs parity faminc
Source |
SS
df
MS
-------------+-----------------------------Model | 17579.8997
3 5859.96658
Residual | 465166.792 1187 391.884408
-------------+-----------------------------Total | 482746.692 1190 405.669489
Number of obs
F( 3, 1187)
Prob > F
R-squared
Adj R-squared
Root MSE
=
=
=
=
=
=
1191
14.95
0.0000
0.0364
0.0340
19.796
-----------------------------------------------------------------------------bwght |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------cigs | -.5978519
.1087701
-5.50
0.000
-.8112549
-.3844489
parity |
1.832274
.6575402
2.79
0.005
.5422035
3.122345
faminc |
.0670618
.0323938
2.07
0.039
.0035063
.1306173
_cons |
115.4699
1.655898
69.73
0.000
112.2211
118.7187
------------------------------------------------------------------------------
Testanweisung in STATA (nur direkt nach der OLS-Schätzung im unrestringierten Regressionsmodell möglich, Abweichung ergibt sich durch Rundungen):
test motheduc=fatheduc=0
( 1)
( 2)
motheduc - fatheduc = 0
motheduc = 0
F(
2, 1185) =
Prob > F =
1.44
0.2380
30
---------------------------------------------------------------------------------------------------------
0.5 Asymptotische Eigenschaften
Definition von Konsistenz:
Falls Wn den Schätzer eines Parameters θ auf der Grundlage einer Stichprobe
y1, y2,…,yn darstellt, ist Wn dann ein konsistenter Schätzer von θ, wenn für beliebige λ > 0 gilt, dass P(|Wn – θ| > λ) für n → ∞ gegen null konvergiert. In diesem Fall konvergiert Wn stochastisch gegen θ, d.h. plim(Wn) = θ.
Konsistenz von OLS-Schätzern:
• Falls die Annahmen A1 bis A4 gelten, sind OLS-Schätzer βh (h = 0,1,…, k) in
linearen Regressionsmodellen konsistente Schätzer für βh, d.h. plim(βh) = βh
• Damit sind für die Konsistenz von OLS-Schätzern dieselben Annahmen wie
bei der Erwartungstreue ausreichend, d.h. z.B. A5 (Heteroskedastizität)
muss nicht erfüllt sein. Tatsächlich muss für die Konsistenz von OLSSchätzern neben den Annahmen A1 bis A3 lediglich eine Abschwächung
von A4 vorliegen, d.h. A4‘: E(ε) = 0 und Cov(xh, ε) = 0 (h = 1, 2,…, k).
Inkonsistenz von OLS-Schätzern:
• Zur Erinnerung: Falls E(ε|x1, x2,…, xk) ≠ 0, d.h. also A4 nicht gilt, sind die
OLS-Schätzer in linearen Regressionsmodellen nicht erwartungstreu
• Analog ergibt sich die Inkonsistenz aller OLS-Schätzer, falls ε mit einer beliebigen erklärenden Variablen korreliert ist, d.h. also falls A4‘ nicht gilt
31
Asymptotische Verteilungen bei OLS-Schätzern:
Die exakte Normalverteilung der OLS-Schätzer in linearen Regressionsmodellen (und damit die exakte t- und F-Verteilung der t- und F-Statistiken) basiert
auf Annahme A6, d.h. ε ~ N(0; σ2). Jedoch kann auch ohne A6 für Funktionen
der OLS-Schätzer eine asymptotische Normalverteilung nachgewiesen werden.
Falls die Annahmen A1 bis A5 gelten, ergibt sich (auch ohne Annahme A6) für
die mit OLS geschätzten Steigungsparameter in linearen Regressionsmodellen:
β̂ h -β h
ˆ ˆh)
Var(β
a
N(0; 1)
Diese Eigenschaft widerspricht nicht der vorherigen Eigenschaft, wonach diese
Funktion exakt t-verteilt ist mit n-k-1 Freiheitsgraden, falls die Annahmen A1 bis
A6 gelten, da auch analog folgende Darstellung möglich ist (da sich die t-Verteilung bei einer Zunahme der Anzahl an Freiheitsgraden der Standardnormalverteilung annähert):
β̂ h -β h
ˆ ˆh)
Var(β
a
t n-k-1
32
Folge:
Damit können auch für den Fall, dass der Störterm ε nicht normalverteilt ist, die
bisher betrachteten t- und F-Tests durchgeführt und Konfidenzintervalle konstruiert werden. Voraussetzung ist aber, dass der Stichprobenumfang n hinreichend groß ist. Bei kleinem n (bzw. kleiner Anzahl an Freiheitsgraden n-k-1) ist
z.B. die Approximation der t-Statistik an die t-Verteilung unzureichend.
Asymptotische Effizienz:
Unter den Gauss-Markov-Annahmen (also unter den Annahmen A1 bis A5)
sind OLS-Schätzer βh (h = 0, 1,…, k) in einer Klasse konsistenter Schätzer βh
der Regressionsparameter in linearen Regressionsmodellen asymptotisch
effizient, d.h. für die asymptotische Varianz Avar gilt:
Avar[ n (βˆ h -β h )]  Avar[ n (β h -β h )]
33
0.6 Heteroskedastizität
Zuvor wurde für die Betrachtung der Varianz von OLS-Schätzern die Annahme
5 der Homoskedastizität diskutiert:
• Falls Var(ε|x1, x2,…, xk) ≠ σ2, liegt Heteroskedastizität vor
• Im Gegensatz z.B. zur Vernachlässigung relevanter erklärender Variablen,
hat die Heteroskedastizität keinen Einfluss auf die Erwartungstreue oder
Konsistenz von OLS-Schätzern. Allerdings hat Heteroskedastizität einen
Einfluss auf die (geschätzte) Varianz der mit OLS geschätzten Steigungsparameter in linearen Regressionsmodellen.
• Es wurde bei Homoskedastizität, d.h. unter den Annahmen A1 bis A5, für die
Varianz der geschätzten Steigungsparameter gezeigt (mit Rh2 als Bestimmtheitsmaß einer Regression von xh auf alle anderen erklärenden Variablen):
Var(βˆ h ) =
σ2
n
(1-R 2h ) (x ih -x h ) 2
σ2
=
(1-R 2h )SSTh
für h = 1,…, k
i=1
• Damit ergibt sich bei Homoskedastizität mit einem konsistenten Schätzer
der Standardabweichung σ folgende geschätzte Standardabweichung:
ˆ ˆh) =
Var(β
σ̂
2
h
(1-R )SSTh
für h = 1,…, k
34
• Da die Varianz lediglich bei Homoskedastizität, nicht aber bei Heteroskedastizität gilt, ist auch diese geschätzte Standardabweichung bei Heteroskedastizität ein verzerrter Schätzer der Standardabweichung der OLS-Schätzer
• Damit sind die geschätzten Standardabweichungen bei Heteroskedastizität
nicht mehr für die Konstruktion von Konfidenzintervallen und t-Statistiken
gültig. Das heißt, die t-Statistiken sind bei Heteroskedastizität (auch bei großen Stichprobenumfängen) nicht mehr t-verteilt. Ebenso sind F-Statistiken
bei Heteroskedastizität nicht mehr F-verteilt.
• Schließlich gilt bei Heteroskedastizität nicht mehr die wünschenswerte
BLUE-Eigenschaft (bzw. Effizienz) von OLS-Schätzern sowie die Eigenschaft der asymptotischen Effizienz. Es lassen sich bei Kenntnis der Form
der Heteroskedastizität gegenüber den OLS-Schätzern effizientere Schätzer
ermitteln.
Ein Standardtest zur Überprüfung von Homoskedastizität ist (neben z.B. dem
White-Test) der Breusch-Pagan-Test. Die Nullhypothese lautet:
H0: Var(ε|x1, x 2 ,…,x k ) = σ2 bzw. H0: E(ε 2 |x1, x 2 ,…,x k ) = E(ε2 ) = σ2
Falls H0 nicht gilt, ist ε2 eine Funktion einer oder mehrerer erklärender Variablen. Bei der Betrachtung aller erklärenden Variablen und einer linearen Funktion ergibt sich in diesem Fall mit einem Störterm v mit (bedingtem) Erwar35
tungswert null:
ε 2 = δ0 + δ1x1 + δ 2 x 2 +
+ δkx k + v
Die Nullhypothese für Homoskedastizität lautet dann:
H 0 : δ1 = δ 2 =
= δk = 0
Da die εi unbekannt sind, werden diese durch ihre Schätzer ersetzt, d.h. den
Residuen εi, so dass diese quadrierten Residuen auf die erklärenden Variablen
regressiert werden:
ε̂ 2 = δ0 + δ1x1 + δ 2 x 2 +
+ δkx k + v
Ein hohes Bestimmtheitsmaß R2ε2 bei dieser Hilfsregression spricht für die Gültigkeit der Alternativhypothese, d.h. für Heteroskedastizität. Eine Version einer
Breusch-Pagan-Teststatistik lautet:
BP = nR ε̂22
Bei Gültigkeit der Nullhypothese (d.h. bei Homoskedastizität) gilt:
a
BP
χ 2k
Damit wird die Nullhypothese der Homoskedastizität zugunsten der Alternativhypothese der Heteroskedastizität bei einem Signifikanzniveau α verworfen,
falls (bei großem Stichprobenumfang n) für die Teststatistik gilt:
BP > χ 2k;1-α
36
Falls die Nullhypothese bei einem geringen Signifikanzniveau verworfen und
damit Heteroskedastizität nachgewiesen wird, sollte darauf reagiert werden:
• Eine Möglichkeit ist die Verwendung von zu OLS alternativen Schätzverfahren wie z.B. die gewichtete Methode der kleinsten Quadrate („WLS, weighted least squares“). Dazu ist es allerdings wünschenswert, die genaue Form
der Heteroskedastizität zu kennen.
• Bei Heteroskedastizität stellt sich aber grundsätzlich die Frage, ob tatsächlich eine zu OLS alternative Schätzmethode angewendet werden sollte: Da
die OLS-Schätzer auch bei Heteroskedastizität (unter den Annahmen A1 bis
A4) erwartungstreu und konsistent sind, kann die Verwendung von OLS
auch in diesem Fall weiterhin nützlich sein.
• Für die Konstruktion von Konfidenzintervallen sowie die Durchführung von tund F-Tests sollten bei Heteroskedastizität allerdings dann die geschätzten
Standardabweichungen der OLS-Schätzer korrigiert werden
Dabei werden die unbekannten Varianzen σi2 der OLS-Schätzer durch die
quadrierten Residuen εi2 (die sich aus der ursprünglichen OLS-Schätzung
ergeben) ersetzt. Im linearen Regressionsmodell ergibt sich allgemein für die
geschätzte Varianz der mit OLS geschätzten Steigungsparameter:
37
n
ˆ ˆh) =
Var(β
2 2
ˆ
r
 ihεˆ i
i=1
SSR 2h
Dabei bezeichnen rih das Residuum für Beobachtung i, das bei der Regression
von xh auf alle anderen erklärenden Variablen entsteht, und SSRh die Residualabweichungsquadratsumme aus dieser Regression. Für die geschätzte Standardabweichung der mit OLS geschätzten Steigungsparameter ergibt sich
nach White (1980):
n
ˆ ˆh) =
Var(β
 rˆ εˆ
2 2
ih i
i=1
SSR h
Auf dieser Grundlage sind verschiedene weitere geschätzte asymptotisch äquivalente Standardabweichungen entwickelt worden. Mit Hilfe dieser geschätzten
Standardabweichungen können heteroskedastizitäts-robuste Konfidenzintervalle und vor allem t-Statistiken konstruiert werden.
38
--------------------------------------------------------------------------------------------------------Beispiel: Erklärung von Löhnen (I)
Mit Hilfe eines linearen Regressionsmodells wird für n = 526 Personen erneut
der Effekt der Ausbildungszeit in Jahren (educ), der Berufserfahrung in Jahren
(exper), der quadrierten Berufserfahrung in Jahren (expersq), der Betriebszugehörigkeit in Jahren (tenure), der quadrierten Betriebszugehörigkeit in Jahren
(tenuresq) sowie der drei kombinierten Familienstands- und Geschlechtsvariablen für verheiratete Männer (marrmale), verheiratete Frauen (marrfem) und
unverheiratete Frauen (singfem) auf den Logarithmus des Stundenlohns
(logwage) untersucht. Dabei wurde folgende OLS-Regressionsfunktion geschätzt, wobei jetzt neben den herkömmlichen auch die heteroskedastizitätsrobust geschätzten Standardabweichungen der geschätzten Parameter (eckige
Klammern) ausgewiesen werden (R2 = 0,461):
ˆ
logwage
= 0,321 + 0,213 marrmale - 0,198marrfem - 0,110singfem + 0,0789educ
(0,100) (0,055)
(0,058)
(0,056)
(0,0067)
[0,109] [0,057]
[0,058]
[0,057]
[0,0074]
+ 0,0268exper - 0,00054expersq + 0,0291tenure - 0,00053tenuresq
(0,0055)
(0,00011)
(0,0068)
(0,00023)
[0,0051]
[0,00011]
[0,0069]
[0,00024 ]
39
---------------------------------------------------------------------------------------------------------
--------------------------------------------------------------------------------------------------------Beispiel: Erklärung von Löhnen (II)
(STATA-Output)
reg logwage marrmale marrfem singfem educ exper expersq tenure tenuresq, robust
Linear regression
Number of obs
F( 8,
517)
Prob > F
R-squared
Root MSE
=
=
=
=
=
526
51.70
0.0000
0.4609
.39329
-----------------------------------------------------------------------------|
Robust
logwage |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------marrmale |
.2126756
.0571419
3.72
0.000
.1004167
.3249345
marrfem | -.1982677
.05877
-3.37
0.001
-.3137251
-.0828103
singfem | -.1103502
.0571163
-1.93
0.054
-.2225587
.0018583
educ |
.0789103
.0074147
10.64
0.000
.0643437
.0934769
exper |
.0268006
.0051391
5.22
0.000
.0167044
.0368967
expersq | -.0005352
.0001063
-5.03
0.000
-.0007442
-.0003263
tenure |
.0290875
.0069409
4.19
0.000
.0154516
.0427234
tenuresq | -.0005331
.0002437
-2.19
0.029
-.0010119
-.0000544
_cons |
.321378
.109469
2.94
0.003
.1063193
.5364368
------------------------------------------------------------------------------
---------------------------------------------------------------------------------------------------------
40
0.7 Zur Einbeziehung von abhängigen und erklärenden Variablen
Logarithmierte und quadrierte Variablen:
Lineare Regressionsmodelle können durch die Einbeziehung von (natürlich)
logarithmierten und quadrierten Variablen auch nichtlineare Zusammenhänge
abbilden
Übersicht zur Einbeziehung logarithmierter Variablen:
Lineares
Regressionsmodell
Abhängige
Variable
Erklärende
Variable
Interpretation des
geschätzten
Steigungsparameters
Level-level
y
xh
∆y = βh∆xh
Level-log
y
logxh
∆y ≈ (βh/100)%∆xh
Log-level
logy
xh
%∆y ≈ (100βh)∆xh
Log-log
logy
logxh
%∆y = βh%∆xh
41
--------------------------------------------------------------------------------------------------------Beispiel: Effekt von Luftverschmutzung auf Immobilienpreise
Mit Hilfe eines linearen Regressionsmodells wird nun mit einer Stichprobe von
n = 506 Gemeinden der Effekt des Logarithmus der Stickoxide in der Luft
(lognox) und der durchschnittlichen Anzahl an Räumen in Häusern (rooms) auf
den Logarithmus des Medians der Immobilienpreise (logprice) untersucht. Mit
STATA haben sich dabei folgende OLS-Schätzergebnisse gezeigt (R2 = 0,514):
reg logprice lognox rooms
-----------------------------------------------------------------------------logprice |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------lognox | -.7176732
.0663397
-10.82
0.000
-.8480102
-.5873361
rooms |
.3059183
.0190174
16.09
0.000
.268555
.3432816
_cons |
9.233737
.1877406
49.18
0.000
8.864885
9.602589
------------------------------------------------------------------------------
Damit ergibt sich:
• Eine Erhöhung der Stickoxide in der Luft um 1% (d.h. %∆nox = 1) führt zu
einer Verminderung des erwarteten Medians der Immobilienpreise um
0,718% (falls rooms konstant gehalten wird)
• Eine Erhöhung der durchschnittlichen Anzahl an Räumen in Häusern um
eins (d.h. ∆rooms = 1) führt zu einer approximativen Erhöhung des erwarteten Medians der Immobilienpreise um 0,306∙100 = 30,6% (falls nox konstant
gehalten wird)
42
---------------------------------------------------------------------------------------------------------
Quadrierte erklärende Variablen:
Damit können wachsende oder sinkende (partielle) marginale Effekte in linearen Regressionsmodellen untersucht werden
Zur Erinnerung:
Falls y auf xh regressiert wird, gibt βh die Veränderung des OLS-Regressionswertes y an, falls xh um eine Einheit steigt (und alle anderen erklärenden Variablen konstant gehalten werden). Damit ist hier der (partielle) marginale Effekt
konstant und hängt nicht von xh ab.
Einbeziehung einer quadrierten erklärenden Variablen:
y = β0 + β1x1 + β 2 x12 + β3x 2 +
+ β k-1x k-2 + β k x k-1 + ε
In diesem Fall beschreibt β1 nicht die Veränderung von y in Bezug auf x1. Die
OLS-Regressionsfunktion lautet:
ŷ = βˆ 0 + βˆ 1x1 + βˆ 2 x12 + βˆ 3x 2 +
+ βˆ k-1x k-2 + βˆ k x k-1
Daraus folgt die Approximation:
ŷ  (βˆ 1 +2βˆ 2 x1 )x1 bzw.
ŷ
 βˆ 1 + 2βˆ 2 x1
x 1
Damit hängt der (partielle) marginale Effekt von x1 auf y von den Werten von x1
ab.
43
Interaktionsterme:
Diese Variablen erlauben, dass der partielle Effekt (bzw. die Elastizität oder Semi-Elastizität) einer erklärenden Variablen in linearen Regressionsmodellen
von verschiedenen Werten einer anderen erklärenden Variablen abhängt
Einbeziehung eines Interaktionsterms:
y = β0 + β1x1 + β 2 x 2 + β3x1x 2 + β 4 x 3 
+ β k-1x k-2 + β k x k-1 + ε
Auch in diesem Fall beschreibt β1 nicht die Veränderung von y in Bezug auf x1.
Die OLS-Regressionsfunktion lautet:
ŷ = βˆ 0 + βˆ 1x1 + βˆ 2 x 2 + βˆ 3x1x 2 + βˆ 4 x 3 +
+ βˆ k-1x k-2 + βˆ k x k-1
Daraus folgt:
ŷ = (βˆ 1 +βˆ 3x 2 )x1 bzw.
ŷ
= βˆ 1 + βˆ 3x 2
x 1
Zur Schätzung des (partiellen) Effektes von x1 auf y werden interessante Werte
von x2 untersucht (z.B. arithmetisches Mittel in der Stichprobe). β1 bildet lediglich den geschätzten Effekt von x1 ab, wenn x2 null ist.
44
Qualitative erklärende Variablen:
Bisher wurde implizit auf quantitative (d.h. metrisch skalierte) abhängige und erklärende Variablen in linearen Regressionsmodellen fokussiert wie z.B. Löhne,
Preise, Ausbildungszeit, Umsätze. In empirischen Untersuchungen spielen aber
häufig auch qualitative Faktoren eine wichtige Rolle wie z.B. Geschlecht, Hautfarbe, Besitz eines Produkts, Branchenzugehörigkeit, regionale Effekte usw.
Qualitative Variablen:
• Qualitative Informationen bei erklärenden Variablen können durch binäre oder
Dummy-Variablen eingefangen werden, die entweder den Wert null oder den
Wert eins annehmen
• Die OLS-Schätzung und das Testen von Hypothesen erfolgt bei der Regressionsanalyse mit qualitativen erklärenden Variablen völlig analog zur ausschließlichen Einbeziehung von quantitativen Variablen
Einzelne binäre erklärende Variablen:
Einbeziehung von qualitativen Variablen mit zwei Ausprägungen
Ausgangspunkt ist zunächst ein multiples lineares Regressionsmodell mit
ausschließlich quantitativen Variablen:
y = β0 + β1x1 + β 2 x 2 +
+ βkx k + ε
45
Mit E(ε|x1, x2,…, xk) = 0 gilt:
E(y|x1 , x 2 ,…, x k ) = β0 + β1x1 + β 2 x 2 +
+ βkx k
Nun wird zusätzlich eine binäre erklärende Variable x0 einbezogen:
y = β0 + δ0 x 0 + β1x1 + β 2 x 2 +
+ βkx k + ε
Daraus folgt:
δ0 = E(y|x 0 = 1, x1 , x 2 ,
, x k ) - E(y|x 0 = 0, x1 , x 2 ,
, xk )
δ0 ist also die Differenz im Erwartungswert von y zwischen x0 = 1 und x0 = 0,
gegeben die gleichen Werte von x1, x2,…, xk und ε.
→ β0 ist somit die Konstante für x0 = 0. Für x0 = 1 beträgt die Konstante β0 + δ0,
so dass δ0 die Differenz der Konstanten für x0 = 1 und x0 = 0 darstellt.
Achtung:
Es dürfen für einen Faktor (z.B. Geschlecht) niemals zwei Dummy-Variablen
(z.B. eine Variable, die den Wert eins annimmt für Frauen und eine weitere Variable, die den Wert eins annimmt für Männer) gleichzeitig in ein lineares Regressionsmodell einbezogen werden, da dadurch eine perfekte Kollinearität
vorliegen würde (einfache Form der „dummy variable trap“)
46
--------------------------------------------------------------------------------------------------------Beispiel: Erklärung (des Logarithmus) von Löhnen
Mit Hilfe eines linearen Regressionsmodells wird für n = 526 Personen der Effekt des Geschlechts (female), der Ausbildungszeit in Jahren (educ), der Berufserfahrung in Jahren (exper), der quadrierten Berufserfahrung in Jahren
(expersq), der Betriebszugehörigkeit in Jahren (tenure) und der quadrierten
Betriebszugehörigkeit in Jahren (tenuresq) auf den Logarithmus des Stundenlohns (logwage) untersucht. Dabei haben sich mit STATA folgende OLSSchätzergebnisse gezeigt (R2 = 0,441):
reg logwage female educ exper expersq tenure tenuresq
-----------------------------------------------------------------------------logwage |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------female |
-.296511
.0358055
-8.28
0.000
-.3668524
-.2261696
educ |
.0801967
.0067573
11.87
0.000
.0669217
.0934716
exper |
.0294324
.0049752
5.92
0.000
.0196584
.0392063
expersq | -.0005827
.0001073
-5.43
0.000
-.0007935
-.0003719
tenure |
.0317139
.0068452
4.63
0.000
.0182663
.0451616
tenuresq | -.0005852
.0002347
-2.49
0.013
-.0010463
-.0001241
_cons |
.4166909
.0989279
4.21
0.000
.2223425
.6110394
------------------------------------------------------------------------------
Damit ergibt sich, dass der geschätzte Stundenlohn bei Frauen (bei gleicher
Ausbildungszeit, gleicher Berufserfahrung und gleicher Betriebszugehörigkeit)
im Durchschnitt approximativ 100∙0,297 = 29,7% geringer ist.
47
---------------------------------------------------------------------------------------------------------
Binäre erklärende Variablen für multiple Kategorien:
Einbeziehung von qualitativen Variablen mit mehr als zwei Ausprägungen
Ausgangspunkt ist zunächst wieder ein multiples lineares Regressionsmodell
mit ausschließlich quantitativen Variablen:
y = β0 + β1x1 + β 2 x 2 +
+ βkx k + ε
Nun wird zusätzlich eine qualitative (nominale oder ordinale) erklärende Variable (z.B. Branchen- oder regionale Zugehörigkeit, Schulbildung) mit q verschiedenen Ausprägungen betrachtet, wobei im Gegensatz zu vorher q > 2. Für diesen Fall können (maximal) q-1 Dummy-Variablen x01, x02,…, x0,q-1 einbezogen
werden:
y = β0 + δ1x 01 + δ 2 x 02 +
+ δq-1x 0,q-1 + β1x1 + β 2 x 2 +
+ βkx k + ε
Die q-te Ausprägung der qualitativen Variablen (d.h. die Dummy-Variable x0q)
dient dabei als Basiskategorie. Das heißt, die geschätzten Regressionsparameter δ1, δ2,…, δq-1 zeigen für die jeweilige Gruppe der qualitativen Variablen
(d.h. für x01, x02,…, x0,q-1) die geschätzte durchschnittliche Differenz in der abhängigen Variable y im Vergleich zur Basiskategorie, d.h. im Vergleich zu x0q.
Achtung:
Es dürfen niemals alle q Dummy-Variablen x01, x02,…, x0,q gleichzeitig einbezogen werden, da dadurch eine perfekte Kollinearität vorliegen würde (generelle
48
Form der „dummy variable trap“).
Interaktionsterme mit binären erklärenden Variablen:
Interaktionsterme müssen sich nicht nur auf zwei quantitative erklärende Variablen beziehen, sondern können auch Dummy-Variablen einbeziehen
Einbeziehung von Interaktionstermen für zwei binäre erklärende Variablen x01
und x02 neben k quantitativen erklärenden Variablen:
y = β0 + δ1x 01 + δ 2 x 02 + δ3x 01x 02 + β1x1 + β 2 x 2 +
+ βkx k + ε
Interpretation:
• Die Einbeziehung von Interaktionstermen für zwei binäre erklärende Variablen (neben der separaten Einbeziehung der Dummy-Variablen) ist eine Alternative zur Einbeziehung von drei binären erklärenden Variablen, wenn vier
Kategorien untersucht werden sollen
• δ1 (bzw. δ2) zeigen für x02 = 0 (bzw. x01 = 0) die geschätzte durchschnittliche
Differenz in der abhängigen Variable y zwischen x01 = 1 und x01 = 0 (bzw.
zwischen x02 = 1 und x02 = 0)
• Für x01 = 1 und x02 = 0 (bzw. für x01 = 0 und x02 = 1) ergibt sich eine geschätzte Konstante von β0 + δ1 (bzw. β0 + δ2)
• Für x01 = 1 und x02 = 1 ergibt sich schließlich eine geschätzte Konstante von
β0 + δ1 + δ2 + δ3
49
Einbeziehung von Interaktionstermen für eine binäre erklärende Variable x01
und eine quantitative erklärende Variable x1 neben k separaten quantitativen
erklärenden Variablen:
y = β0 + δ1x 01 + β1x1 + δ 2 x 01x1 + β 2 x 2 +
+ βkx k + ε
Interpretation:
• Hier kann untersucht werden, inwieweit sich der partielle Effekt (bzw. die
Elastizität oder Semi-Elastizität) der quantitativen erklärenden Variablen x1
in linearen Regressionsmodellen bei den beiden Ausprägungen der binären
erklärenden Variablen x01 unterscheidet. Falls kein Unterschied vorliegt, gilt
δ2 = 0.
• Falls x01 = 0, gilt für die OLS-Regressionsfunktion:
ŷ = βˆ 0 + βˆ 1x1 + βˆ 2 x 2 +
+ βˆ k x k
Die geschätzte Konstante lautet hier also β0 und der geschätzte partielle Effekt von x1 beträgt β1.
• Falls x01 = 1, gilt für die OLS-Regressionsfunktion:
ŷ = βˆ 0 + δˆ 1 + βˆ 1x1 + δˆ 2 x 01x1 + βˆ 2 x 2 +
+ βˆ k x k
Die geschätzte Konstante lautet hier also β0 + δ1 und der geschätzte partielle Effekt von x1 beträgt β1 + δ2.
50
0.8 Lineare Regressionsanalyse mit Zeitreihendaten
Besonderheiten von Zeitreihendaten:
• Auch ökonomische Zeitreihendaten können als Zufallsvariablen aufgefasst
werden. Deren Sequenzen über die Zeit werden als stochastische Prozesse
oder Zeitreihenprozesse aufgefasst. Wenn Zeitreihendaten gesammelt werden, erhält man eine Realisation des stochastischen Prozesses.
• Im Gegensatz zur Querschnittsanalyse werden bei der Betrachtung von
Zeitreihendaten üblicherweise nicht Indizes i = 1,…, n für die einzelnen Beobachtungen verwendet, sondern t = 1,…, n für den stochastischen Prozess
{(xt1, xt2,…, xtk, yt)}, wobei n jetzt die Anzahl der Zeitperioden ist
Damit ergibt sich folgende Formulierung eines linearen Regressionsmodells:
y t = β0 + β1x t1 + β 2 x t2 +
+ β k x tk + ε t für t = 1,..., n
Dabei stellt {εt: t = 1,…, n} die Sequenz von Störtermen dar und xth den Wert
der erklärenden Variablen h = 1,…, k in Zeitperiode t. Im Folgenden beinhalten
der k-dimensionale Vektor xt = (xt1,…, xtk) die erklärenden Variablen in t sowie
die (n×k)-dimensionale Matrix x sämtliche erklärende Variablen über alle Perioden, wobei xt die t-te Zeile von x darstellt.
→ Die unbekannten Parameter können grundsätzlich ebenfalls mit der OLSMethode geschätzt werden
51
Annahmen zur Betrachtung des Erwartungswerts von OLS-Schätzern:
• Annahme B1: Linearität in den Parametern
Der Zeitreihenprozess {(xt1,…, xtk, yt): t = 1,…, n} folgt dem linearen Modell
yt = β0 + β1xt1 +…+ βkxtk + εt
• Annahme B2: Keine perfekte Kollinearität
In der Stichprobe (und daher auch im zugrundeliegenden Zeitreihenprozess)
ist keine der erklärenden Variablen konstant und es besteht keine exakte lineare Beziehung zwischen den erklärenden Variablen
• Annahme B3: Bedingter Erwartungswert von εt ist null
Für jede Zeitperiode t ist der bedingte Erwartungswert von εt, gegeben die
erklärenden Variablen für alle Perioden t = 1,…, n, null, d.h.
E(ε t |x) = 0 für t = 1,..., n
Zu Annahme B3 (strikte Exogenität der erklärenden Variablen):
• B3 impliziert, dass der Störterm εt in einer Zeitperiode t mit jeder erklärenden Variablen xth (h = 1,…, k) in jeder Periode t = 1,…, n unkorreliert ist.
Falls εt unabhängig von x ist und E(εt) = 0, dann gilt dies automatisch.
• Insgesamt ist Annahme B3 in Regressionsanalysen mit Zeitreihendaten sehr
häufig unrealistisch und gilt nur in recht wenigen Fällen. Dennoch soll diese
Annahme zunächst betrachtet werden.
52
Auch unter den drei Annahmen B1 bis B3 sind alle mit der OLS-Methode geschätzten Parameter sowohl unter der Bedingung von x und auch ohne Bedingung erwartungstreu, d.h.:
E(βˆ h ) = β h für h = 0, 1,…, k
Zu beachten ist dabei, dass für die Erwartungstreue auf Annahme A2 (Zufallsstichprobe) bei Querschnittsanalysen verzichtet werden kann, wenn B3 gilt.
Annahmen zur Betrachtung der Varianz von OLS-Schätzern:
• Annahmen B1 bis B3
• Annahme B4: Homoskedastizität
Die bedingte Varianz des Fehlerterms εt ist konstant über alle Zeitperioden
t = 1,…, n, d.h. es gilt Var(εt|x) = Var(εt) = σ2. Falls dies nicht zutrifft, liegt wie
bei Querschnittsanalysen Heteroskedastizität vor.
• Annahme B5: Keine Autokorrelation
Unter der Bedingung von x sind die Störterme für beliebige Zeitperioden unkorreliert, d.h. es gilt Corr(εt,εs|x) = 0 für alle t ≠ s. Bei dieser Annahme wird
zur einfacheren Interpretation oft von der Bedingung von x abstrahiert:
Corr(ε t ,ε s ) = 0 für alle t  s
53
Damit ergibt sich auch unter den Annahmen B1 bis B5 für die bedingte Varianz
der mit OLS geschätzten Steigungsparameter:
Var(βˆ h |x) =
σ2
n
(1-R 2h ) (x th -x h ) 2
σ2
=
(1-R 2h )SSTh
für h = 1,…, k
t=1
Dabei stellt Rh2 das Bestimmtheitsmaß bei einer Regression von xh auf alle anderen erklärenden Variablen (einschließlich einer Konstante) dar.
Des Weiteren gilt:
• Auch unter den Annahmen B1 bis B5 ergibt sich folgender erwartungstreuer
Schätzer für die Varianz σ2 des Fehlerterms εt:
1 n 2
SSR
ˆ
σ̂ =
ε
=
 t n-k-1
n-k-1 t=1
2
• Auch unter den Annahmen B1 bis B5 sind die OLS-Schätzer die besten linearen unverzerrten Schätzer unter der Bedingung von x
Somit liegen bei den Annahmen B1 bis B5 in Regressionsanalysen mit Zeitreihendaten dieselben wünschenswerten Eigenschaften bei endlichen Stichproben vor wie bei den Annahmen A1 bis A5 in Querschnittsanalysen.
54
Zusätzliche Annahme B6: Normalverteilung
• Die Störterme εt sind unabhängig von x und unabhängig und identisch normalverteilt mit einem Erwartungswert null und einer Varianz σ2, d.h. es gilt:
εt ~ N(0; σ2). Dabei impliziert B6 die Annahmen B3 bis B5, jedoch ist diese
Annahme aufgrund der Unabhängigkeit und Normalverteilung stärker.
Auch unter den klassischen linearen Modellannahmen B1 bis B6 in Zeitreihenanalysen ergibt sich:
Die OLS-Schätzer sind unter der Bedingung von x normalverteilt, die konventionelle Konstruktion von Konfidenzintervallen ist gültig und unter den Nullhypothesen folgen die t- und F-Statistiken der t- und F-Verteilung
Einbeziehung von Dummy-Variablen in Zeitreihenanalysen:
Da eine Beobachtungseinheit eine Zeitperiode ist, repräsentieren Dummy-Variablen, ob sich ein spezifisches Ereignis in einzelnen Perioden ergeben hat
Es wird nun eine zusätzliche qualitative erklärende Variablen mit q verschiedenen Ausprägungen betrachtet. Für diesen Fall können (maximal) q-1 DummyVariablen xt01, xt02,…, xt0,q-1 einbezogen werden:
yt = β0 + δ1x t01 + δ2x t02 +
+ δq-1x t0,q-1 + β1x t1 + β2x t2 +
+ βk x tk + ε t
Die q-te Ausprägung der qualitativen Variablen (d.h. die Dummy-Variable xt0q)
55
dient dabei als Basiskategorie.
--------------------------------------------------------------------------------------------------------Beispiel: Erklärung von Fertilitätsraten
Mit Hilfe eines linearen Regressionsmodells soll für die Jahre von 1913 bis
1984 der Effekt des durchschnittlichen Steuerfreibetrags (pe) sowie der Zeitperioden des Zweiten Weltkrieges von 1941 bis 1945 (ww2) und seit Einführung
der Antibabypille ab 1963 (pill) auf die Anzahl der Geburten auf 1000 Frauen im
gebärfähigen Alter (gfr) in den USA untersucht werden. Dabei haben sich mit
STATA folgende OLS-Schätzergebnisse gezeigt (n = 72, R2 =0,473):
reg gfr pe ww2 pill
-----------------------------------------------------------------------------gfr |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------pe |
.08254
.0296462
2.78
0.007
.0233819
.1416981
ww2 |
-24.2384
7.458253
-3.25
0.002
-39.12111
-9.355686
pill | -31.59403
4.081068
-7.74
0.000
-39.73768
-23.45039
_cons |
98.68176
3.208129
30.76
0.000
92.28003
105.0835
------------------------------------------------------------------------------
Die geschätzten Regressionsparameter implizieren, dass die Anzahl der Geburten auf 1000 Frauen im gebärfähigen Alter (bei gleichem durchschnittlichen
Steuerfreibetrag) während des Zweiten Weltkrieges durchschnittlich um mehr
als 24 und seit Einführung der Antibabypille um mehr als 31 geringer war als in
den anderen Zeitperioden
--------------------------------------------------------------------------------------------------------56
Achtung:
Es dürfen wiederum niemals alle q Dummy-Variablen xt01, xt02,…, xt0,q gleichzeitig einbezogen werden, da dadurch eine perfekte Kollinearität vorliegen würde (generelle Form der „dummy variable trap“)
Zeittrends:
Zeitreihendaten und somit auch abhängige und erklärende Variablen in linearen Regressionsmodellen können eine sinkende und vor allem wachsende
Tendenz über die Zeit haben (z.B. Arbeitsproduktivität, nominale Importe). Falls
dies ignoriert wird, können sich falsche geschätzte kausale Effekte ergeben.
Einfachstes Modell für lineare Zeittrends eines stochastischen Prozesses {yt}:
y t = α 0 + α1t + e t für t = 1, 2, ...
Im einfachsten Fall stellt {et} eine unabhängige identisch verteilte zufällige Sequenz mit E(et) = 0 und Var(et) = σe2 dar.
Zudem ergibt sich:
E(y t ) = α0 + α1t
Bei α1 > 0 liegt im Durchschnitt ein wachsender Trend und bei α1 < 0 ein sinkender Trend vor. Im Gegensatz zum Erwartungswert ist die Varianz von yt
konstant über die Zeit.
57
→ Falls bei abhängigen und/oder erklärenden Variablen in Regressionsanalysen mit Zeitreihendaten Trends vorliegen, sollten diese einbezogen werden,
da ansonsten scheinbare Zusammenhänge („spurious regression“) entstehen. Ohne die Einbeziehung von Trendvariablen könnten sich verzerrte
Schätzer der Regressionsparameter ergeben („omitted variable bias“).
Einbeziehung eines linearen Zeittrends:
y t = β0 + β1x t1 + β 2 x t2 +
+ β k x tk + δt + ε t für t = 1,..., n
Anmerkungen:
• Neben linearen Zeittrends können auch quadratische Zeittrends sowie weitere Polynome von t einbezogen werden
• Falls der Zeittrend signifikant von null verschieden ist und sich die Schätzergebnisse stark verändern, sollten die geschätzten Regressionsparameter
ohne die Einbeziehung der Trendvariablen vorsichtig interpretiert werden
• Die Einbeziehung eines Zeittrends als erklärende Variable führt zu einer
Trendbereinigung, d.h. die geschätzten Steigungsparameter können als
geschätzte Effekte ohne den Zeittrend interpretiert werden
• Bestimmtheitsmaße in Regressionsanalysen mit Zeitreihendaten können artifiziell sehr hohe Werte aufweisen, falls die abhängige Variable einen Trend
aufweist
58
--------------------------------------------------------------------------------------------------------Beispiel: Erklärung von Fertilitätsraten
Wie zuvor soll erneut mit Hilfe eines linearen Regressionsmodells für die Jahre
von 1913 bis 1984 der Effekt des durchschnittlichen Steuerfreibetrags (pe) sowie der Zeitperioden des Zweiten Weltkrieges von 1941 bis 1945 (ww2) und
seit Einführung der Antibabypille ab 1963 (pill) auf die Fertilitätsrate (gfr) in den
USA untersucht werden. Jetzt wird aber durch die Einbeziehung einer linearen
Trendvariable eine Trendbereinigung durchgeführt. Dabei haben sich mit STATA folgende OLS-Schätzergebnisse gezeigt (n = 72, R2 = 0,662):
reg gfr pe ww2 pill t
-----------------------------------------------------------------------------gfr |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------pe |
.2788778
.0400199
6.97
0.000
.1989978
.3587578
ww2 | -35.59228
6.297377
-5.65
0.000
-48.1619
-23.02267
pill |
.997447
6.26163
0.16
0.874
-11.50082
13.49571
t | -1.149872
.1879038
-6.12
0.000
-1.524929
-.7748145
_cons |
111.7694
3.357765
33.29
0.000
105.0673
118.4716
------------------------------------------------------------------------------
Der geschätzte sinkende lineare Zeittrend ist hochsignifikant von null verschieden, so dass nun der geschätzte Regressionsparameter für pe mehr als dreimal so groß wie vorher und deutlicher signifikant von null verschieden ist .Vor
allem aber hat dadurch nun die Einführung der Antibabypille ab 1963 keinen
59
signifikanten Effekt mehr jenseits des Zeittrends.
---------------------------------------------------------------------------------------------------------
Saisonalität:
Falls sich Zeitreihendaten auf Monate oder Quartale (bzw. auch Wochen oder
Tage) beziehen, kann Saisonalität vorliegen, z.B. Wettereinflüsse bei makroökonomischen Variablen wie Beschäftigungszahlen. Andere Variablen wie z.B.
Zins- oder Inflationsraten weisen dagegen selten Saisonalität auf. Daten für einige Variablen mit Saisonalität können bereits im Vorfeld saisonbereinigt sein.
Falls Saisonalität bei abhängigen und/oder erklärenden Variablen in Regressionsanalysen mit Zeitreihendaten vorliegt und die Daten noch nicht saisonbereinigt wurden, sollten saisonale Dummy-Variablen einbezogen werden. Bei
Monatsdaten und der Einbeziehung von elf Dummy-Variablen für die Monate
Februar (feb) bis Dezember (dec) ergibt sich z.B.:
y t = β0 + β1x t1 + β 2 x t2 +
+ β k x tk + δ1feb t +
+ δ11dec t + ε t für t = 1,..., n
Anmerkungen:
• Bei Quartalsdaten können Dummy-Variablen für drei Quartale einbezogen
werden
• Die Einbeziehung von saisonalen Dummy-Variablen führt zu einer Saisonbereinigung, d.h. die geschätzten Steigungsparameter der erklärenden Variablen können als geschätzte Effekte ohne Saisonalität interpretiert werden
• Saisonale Dummy-Variablen können neben Trendvariablen einbezogen werden, so dass eine Saison- und Trendbereinigung durchgeführt wird
60
0.9 Asymptotische Eigenschaften in Zeitreihenanalysen
Die zuvor betrachteten Eigenschaften von OLS-Schätzern bei endlichen Stichprobenumfängen basieren auf Annahmen, die bei Regressionsanalysen mit
Zeitreihendaten sehr restriktiv sein können. Deshalb sind asymptotische Eigenschaften unter weniger restriktiven Annahmen bei Zeitreihenanalysen noch
wichtiger als bei Querschnittsanalysen. Hierbei spielen die Stationarität und eine geringe serielle Abhängigkeit der Zeitreihe bei schwacher Abhängigkeit von
Zeitreihenprozessen eine wesentliche Rolle.
Stationärer stochastischer Prozess:
Ein solcher Zeitreihenprozess ist dadurch gekennzeichnet, dass seine Wahrscheinlichkeitsverteilungen zeitinvariant sind, d.h. die gemeinsamen Verteilungen einer spezifischen Sequenz von Zeitreihendaten und einer um beliebige g
Zeitperioden nach vorne verschobenen Sequenz sind identisch
Formale Definition eines (strikt) stationären stochastischen Prozesses:
Ein stochastischer Prozess {yt: t = 1,…, n} ist stationär, falls für alle Zeitindizes
1 ≤ t1 < t2 < … < tm und für alle ganze Zahlen g ≥ 1 die gemeinsame Wahrscheinlichkeitsverteilung von (yt1, yt2,…, ytm) identisch mit der gemeinsamen
Verteilung von (yt1+g, yt2+g,…, ytm+g) ist.
61
Schwach stationärer (kovarianz-stationärer) stochastischer Prozess:
Ein stochastischer Prozess {yt: t = 1,…, n} mit einem endlichen E(yt2) < ∞ ist
schwach stationär, falls (i) E(yt) konstant ist, (ii) Var(yt) konstant ist und (iii) für
alle t, g ≥ 1 gilt, dass Cov(yt, yt+g) nur von g, nicht aber von t abhängt
Schwach abhängige Zeitreihenprozesse:
• Eine schwache Abhängigkeit zwischen zwei Werten yt und yt+g bezieht sich
auf Restriktionen für die Stärke ihres Zusammenhangs, wenn der zeitliche
Abstand g wächst
• Ein stationärer Zeitreihenprozess {yt: t = 1,…, n} ist schwach abhängig, falls
yt und yt+g „fast unabhängig“ sind, wenn g über alle Grenzen wächst
• Ein schwach stationärer Zeitreihenprozess ist schwach abhängig, falls die
Korrelation von yt und yt+g „hinreichend schnell“ gegen null konvergiert,
wenn g über alle Grenzen wächst. Wenn also die Zufallsvariablen über die
Zeit weiter auseinander driften, wird ihre Korrelation immer kleiner, d.h. mit
g → ∞ ergibt sich Corr(yt, yt+g) → 0. Der Zeitreihenprozess wird dann als
asymptotisch unkorreliert bezeichnet.
→ Ein unabhängig identisch verteilter (i.i.d.) Zeitreihenprozess ist das triviale
Beispiel eines schwach abhängigen Prozesses, da er ja unabhängig ist
→ Zeitreihenprozesse mit Trends können nicht-stationär, aber schwach abhängig sein (bei Stationarität über den Zeittrend liegt Trendstationarität vor)62
Annahmen zur Betrachtung der Konsistenz von OLS-Schätzern:
• Annahme B1‘: Linearität und schwache Abhängigkeit
Es gilt Annahme B1, d.h. der Zeitreihenprozess {(xt, yt): t = 1,…, n} folgt dem
linearen Modell yt = β0 + β1xt1 +…+ βkxtk + εt. Zusätzlich ist der Zeitreihenprozess aber stationär und schwach abhängig. Das lineare Regressionsmodell kann nun (wegen B3‘) auch zeitlich verzögerte abhängige Variablen als
erklärende Variablen beinhalten. Die gegenüber B1 wesentliche zusätzliche
Annahme ist weniger die Stationarität, sondern vielmehr die schwache Abhängigkeit, die in vielen Zeitreihenprozessen nicht vorliegt.
• Annahme B2‘: Keine perfekte Kollinearität
Es gilt also Annahme B2
• Annahme B3‘: Bedingter Erwartungswert von εt ist null
Im Gegensatz zu Annahme B3 wird jetzt nicht mehr die strikte Exogenität
der erklärenden Variablen, sondern lediglich die kontemporäre Exogenität
betrachtet, d.h. E(εt|xt) = 0. Häufig wird für die Konsistenzeigenschaft auch
lediglich folgendes vorausgesetzt:
E(ε t ) = 0, Cov(x th , ε t ) = 0 für h = 1,..., k
Unter diesen drei Annahmen sind die OLS-Schätzer βh konsistent (wenngleich
nicht unbedingt erwartungstreu), d.h. es gilt plim(βh) = βh für h = 0,1,…, k
63
Die Annahmen zur Ableitung der asymptotischen Normalverteilung von Funktionen von OLS-Schätzern in Zeitreihenanalysen und damit zur Durchführung
von Testverfahren sind etwas weniger restriktiv als die klassischen linearen
Modellannahmen B1 bis B6:
• Annahmen B1‘ bis B3‘ (die bei der Betrachtung der Konsistenz von OLSSchätzern getroffen werden)
• Annahme B4‘: Kontemporäre Homoskedastizität der Fehlerterme
Die bedingte Varianz des Fehlerterms εt ist konstant und bezieht sich nicht
mehr auf die erklärenden Variablen in allen Zeitperioden t = 1,…, n, sondern
nur noch in Zeitperiode t: Var(εt|xt) = Var(εt) = σ2.
• Annahme B5‘: Keine Autokorrelation der Fehlerterme
Für alle t ≠ s gilt E(εtεs|xt, xs) = 0, d.h. es wird nur noch auf die erklärenden
Variablen in den Zeitperioden von εt und εs bedingt. Auch bei dieser Annahme wird zur einfacheren Interpretation oft von der Bedingung abstrahiert und
lediglich die Unkorreliertheit von εt und εs betrachtet.
Unter den Annahmen B1‘ bis B5‘ ergibt sich, dass die OLS-Schätzer asymptotisch effizient sind und für die zuvor betrachtete Funktion der OLS-Schätzer eine asymptotische Normalverteilung vorliegt. Zudem sind die t- und F-Statistiken in diesem Fall asymptotisch t- und F-verteilt. Dadurch können dann die
konventionellen t- und F-Tests durchgeführt und Konfidenzintervalle konstruiert
werden.
64
0.10 Autokorrelierte Fehlerterme
Eigenschaften von OLS-Schätzern bei autokorrelierten Fehlertermen:
• Unter den Annahmen B1 bis B3 (insbesondere bei strikter Exogenität der erklärenden Variablen) sind die OLS-Schätzer βh unabhängig von der Stärke
der Autokorrelation der Störterme erwartungstreu
• Unter den Annahmen B1‘ bis B3‘ (und damit insbesondere bei schwacher
Abhängigkeit des Zeitreihenprozesses) sind die OLS-Schätzer βh unabhängig von der Stärke der Autokorrelation der Störterme konsistent
• Allerdings werden bei autokorrelierten Fehlertermen nicht mehr die GaussMarkov-Annahmen erfüllt, so dass die OLS-Schätzer in diesem Fall nicht
mehr die BLUE-Eigenschaft (bzw. Effizienz) aufweisen
• Vor allem aber sind bei autokorrelierten Fehlertermen die konventionellen
Schätzer der Varianzen der mit OLS geschätzten Steigungsparameter verzerrt und somit auch die t- und F-Statistiken nicht einmal mehr asymptotisch
t- und F-verteilt
• Die wichtigste Form autokorrelierter Fehlerterme ergibt sich durch einen
AR(1) Prozess, also durch folgende AR(1) Autokorrelation:
ε t = ρε t-1 + e t für t = 1, 2,..., n
Dabei gilt die Stabilitätsbedingung |ρ| < 1 und die et sind unkorreliert mit Er65
wartungswert null und Varianz σe2.
Allgemeiner t-Test auf AR(1) Autokorrelation der Fehlerterme:
• Überprüft wird folgende AR(1) Autokorrelation der Fehlerterme:
ε t = ρε t-1 + e t für t = 2, 3,..., n
Angenommen wird dabei, dass {et} ein i.i.d. Zeitreihenprozess ist, so dass
dabei auch Homoskedastizität vorliegt:
E(e t |ε t-1 , ε t-2 ,...) = 0
Var(e t |ε t-1 ) = Var(e t ) = σ e2
• Die Nullhypothese lautet:
H 0: ρ = 0
• Die Nullhypothese könnte dadurch überprüft werden, dass ein gewöhnlicher
t-Test für ρ bei der Regression von εt auf εt-1 sowie allen erklärenden Variablen (die verzögerte abhängige Variablen sein können) und einer Konstante
angewendet wird
• Allerdings sind die εt unbekannt und werden deshalb durch die OLSResiduen εt ersetzt
• Durch die Einbeziehung der erklärenden Variablen ergibt sich die approximative t-Verteilung der Prüfgröße, selbst wenn die erklärenden Variablen
nicht strikt exogen sind (bei strikter Exogenität der erklärenden Variablen
genügt eine Regression von εt auf εt-1)
66
• Somit ergibt sich folgendes Vorgehen bei diesem allgemeinen t-Test:
(1) Mit Hilfe der OLS-Regressionswerte bei der Regression von yt auf die erklärenden Variablen xt1,…, xtk werden zunächst die Residuen εt für alle
t = 1,2,…, n ermittelt
(2) Danach werden die εt auf die εt-1 sowie alle erklärenden Variablen einschließlich einer Konstante für alle t = 2,…, n regressiert, der OLSSchätzer ρ für εt-1 abgeleitet und die t-Statistik tρ ermittelt
(3) Die Teststatistik tρ wird schließlich zur Überprüfung der Nullhypothese
H0: ρ = 0 verwendet
• Obwohl dieser Test zur Überprüfung von AR(1) Autokorrelationen in den
Fehlertermen entwickelt wurde, können damit auch andere Formen von (angrenzenden) Autokorrelationen aufgedeckt werden
• Falls keine Homoskedastizität bei {et} vorliegt, können heteroskedastizitätsrobuste t-Statistiken angewendet werden
• Ein alternatives in der Vergangenheit populäres Verfahren ist der DurbinWatson-Test auf AR(1) Autokorrelation der Störterme, der allerdings zwingend die strikte Exogenität der erklärenden Variablen voraussetzt (damit
kann dieser Test z.B. nicht bei linearen Regressionsmodellen mit verzögerten abhängigen Variablen angewendet werden)
67
Mögliche Ansätze bei autokorrelierten Fehlertermen:
• Ein Ansatz ist die Transformation der Variablen durch die Einbeziehung von
(z.B. ersten) Differenzen der abhängigen und erklärenden Variablen. Durch
diese Transformation können häufig nicht nur die starke Abhängigkeit der
Zeitreihenprozesse, sondern oft auch eine Autokorrelation der Störterme
ganz vermieden werden.
• Ein alternativer Ansatz ist die Anwendung einer zu OLS alternativen Schätzmethode. Beispiele hierfür sind verschiedene verallgemeinerte Methoden
der kleinsten Quadrate (GLS) wie z.B. die Cochrane-Orcutt- oder die PraisWinston-Methode. Damit können einzelne Formen autokorrelierter Störterme bei der Parameterschätzung berücksichtigt werden.
→ Allerdings hat die Anwendung von GLS-Methoden eine Reihe von strengen
Anforderungen. So müssen z.B. die erklärenden Variablen strikt exogen
sein, da GLS-Schätzer ansonsten nicht einmal konsistent sind. Zudem wird
häufig die spezifische AR(1) Autokorrelation der Fehlerterme angenommen.
→ Aus diesem Grund werden in den letzten Jahren viel häufiger die Regressionsparameter (ineffizient) mit OLS geschätzt, die Schätzer der Varianzen
der geschätzten Regressionsparameter aber korrigiert. Damit können in
Analogie zur Betrachtung von heteroskedastizitäts-robusten t-Statistiken autokorrelations-robuste Konfidenzintervalle und vor allem t-Statistiken abgeleitet werden.
68
Ausgangspunkt eines Ansatzes zur Ableitung von autokorrelations-robusten
Schätzungen der Varianz der geschätzten Regressionsparameter ist das folgende lineare Regressionsmodell:
y t = β0 + β1x t1 +
+ β k x tk + ε t für t = 1,..., n
Dabei soll zunächst eine autokorrelations-robuste Schätzung der Standardabweichung des OLS-Schätzers β1 abgeleitet werden. Hierzu wird folgendes
Hilfsregressionsmodell betrachtet, das die erste erklärende Variable xt1 als abhängige Variable und alle anderen erklärenden Variablen als erklärende Variablen beinhaltet:
x t1 = δ0 + δ1x t2 +
+ δ k-1x tk + rt1 für t = 1,..., n
Dabei hat der Störterm rt1 einen Erwartungswert von null und ist unkorreliert mit
den erklärenden Variablen xt2,…, xtk.
Für den Schätzer der Standardabweichung des OLS-Schätzers β1 wird im Folgenden weiterhin der Schätzer σ der Standardabweichung σ des Fehlerterms εt
betrachtet. Mit rt1 als Residuum der obigen OLS-Schätzung in Zeitperiode t
kann mit g > 0 (wobei g kontrolliert, welches Ausmaß an Autokorrelation in die
Betrachtung einbezogen wird) folgender Ansatz abgeleitet werden:

h  n

ˆ
ˆ
ˆ
ˆ
v̂ =  rˆ εˆ + 2  1r
ε
r
ε
   t1 t t-h,1 t-h 
g+1
t=1
h=1 

  t=h+1
g
n
2 2
t1 t
69
Je größer g ist, desto mehr Terme werden zur Korrektur der Autokorrelation
einbezogen. Im einfachsten Fall mit g = 1 ergibt sich:
n
v̂ =
 rˆ εˆ
2 2
t1 t
t=1
n
+
 rˆ εˆ rˆ
εˆ
t1 t t-1,1 t-1
t=2
Damit ergibt sich nun folgender autokorrelations-robuster Schätzer der Standardabweichung von β1:

 (1-R 2 )SST
1
1
ˆ ˆ1 ) = 
Var(β

σ̂


σ̂






2
vˆ =
vˆ
vˆ
=
(1-R12 )SST1
SSR1
Diese Schätzung kann analog auf beliebige OLS-Schätzer βh angewendet werden (mit Störterm rth). Dabei sind die Schätzungen nicht nur autokorrelationsrobust, sondern auch robust für beliebige Formen der Heteroskedastizität, so
dass sie auch als heteroskedastizitäts- und autokorrelations-konsistente (HAC)
Schätzungen der Standardabweichung der geschätzten Steigungsparameter
bezeichnet werden. Diese Robustheit für Heteroskedastizität zeigt sich, wenn
für βh nur der erste Term von v einbezogen wird:
70
n
ˆ ˆh) =
Var(β
 rˆ εˆ
n
2 2
th t
t=1
2
h
(1-R )SSTh
=
2 2
ˆ
r
 thεˆ t
t=1
SSR h
Damit ergibt sich die Analogie zur heteroskedastizitäts-robusten Schätzung der
Standardabweichung von mit OLS geschätzten Steigungsparametern.
Anmerkungen:
• Die Einbeziehung der HAC-Schätzung der Standardabweichung der geschätzten Steigungsparameter in t-Statistiken führt zu heteroskedastizitätsund autokorrelations-robusten t-Statistiken
• Mit wachsendem n sollte auch die Zahl g wachsen, da bei einer großen Anzahl an Zeitperioden auch das Ausmaß der Autokorrelation der Fehlerterme
steigen kann. Faustregeln sind g = 4(n/100)2/9 (nach Newey und West,
1987) oder aber g = n1/4.
• Aufgrund von häufig positiver Autokorrelation der Störterme weisen die
HAC-Schätzer der Standardabweichung der geschätzten Steigungsparameter oft höhere Werte auf als die konventionellen Schätzer, so dass die HAC
t-Statistiken meist kleiner sind
• Probleme der HAC-Schätzungen sind, dass sie bei sehr hoher Autokorrelation der Störterme und kleinem n sehr invalide und dass die zugrunde lie- 71
genden OLS-Schätzer sehr ineffizient sein können
--------------------------------------------------------------------------------------------------------Beispiel: Erklärung von Beschäftigungsraten (I)
Mit Hilfe eines linearen Regressionsmodells soll für die Jahre von 1950 bis
1987 der Effekt des Logarithmus der Bedeutung des U.S. Mindestlohnes
(logmincov), des Logarithmus des U.S. Bruttosozialprodukts (logusgnp) und
des Logarithmus des Bruttosozialprodukts in Puerto Rico (logprgnp) unter Einbeziehung einer linearen Trendvariable auf den Logarithmus der Beschäftigungsrate in Puerto Rico (logprepop) untersucht werden. Bei einem Test auf
AR(1) Autokorrelation der Fehlerterme hat sich ein klarer Hinweis auf AR(1)
Autokorrelation ergeben, so dass autokorrelations-robuste t-Statistiken betrachtet werden.
Ergebnisse:
• Der OLS-Schätzer der Elastizität der Beschäftigungsrate in Bezug auf den
Mindestlohn beträgt -0,2123 und der übliche Schätzwert der Standardabweichung des geschätzten Steigungsparameters beträgt 0,0402
• Mit g = 2 ergibt sich ein heteroskedastizitäts- und autokorrelationsrobuster
Schätzer der Standardabweichung des Steigungsparameters von 0,0457
und ist damit nur geringfügig höher
• Die robuste t-Statistik beträgt -4,64, so dass die geschätzte Elastizität weiterhin hoch signifikant von null verschieden ist
72
---------------------------------------------------------------------------------------------------------
--------------------------------------------------------------------------------------------------------Beispiel: Erklärung von Beschäftigungsraten (II)
(STATA-Output)
reg logprepop logmincov logusgnp logprgnp t
Source |
SS
df
MS
-------------+-----------------------------Model | .284429837
4 .071107459
Residual |
.03542846
33
.00107359
-------------+-----------------------------Total | .319858296
37 .008644819
Number of obs
F( 4,
33)
Prob > F
R-squared
Adj R-squared
Root MSE
=
=
=
=
=
=
38
66.23
0.0000
0.8892
0.8758
.03277
-----------------------------------------------------------------------------logprepop |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------logmincov | -.2122612
.0401525
-5.29
0.000
-.2939519
-.1305704
logusgnp |
.4860432
.2219834
2.19
0.036
.0344145
.9376719
logprgnp |
.2852395
.0804922
3.54
0.001
.1214768
.4490022
t | -.0266633
.0046267
-5.76
0.000
-.0360764
-.0172501
_cons | -6.663416
1.257835
-5.30
0.000
-9.222501
-4.104331
------------------------------------------------------------------------------
newey logprepop logmincov logusgnp logprgnp t, lag(2)
Regression with Newey-West standard errors
maximum lag: 2
Number of obs
F( 4,
33)
Prob > F
=
=
=
38
37.84
0.0000
-----------------------------------------------------------------------------|
Newey-West
logprepop |
Coef.
Std. Err.
t
P>|t|
[95% Conf. Interval]
-------------+---------------------------------------------------------------logmincov | -.2122611
.0457188
-4.64
0.000
-.3052768
-.1192455
logusgnp |
.4860416
.2791144
1.74
0.091
-.081821
1.053904
logprgnp |
.2852399
.0996364
2.86
0.007
.082528
.4879518
t | -.0266632
.0057559
-4.63
0.000
-.0383736
-.0149528
_cons | -6.663407
1.536445
-4.34
0.000
-9.789328
-3.537485
------------------------------------------------------------------------------
73
---------------------------------------------------------------------------------------------------------
Herunterladen