0. Grundlagen der Ökonometrie Literaturempfehlung: • J. M. Wooldridge (2008), Introductory Econometrics: A modern approach, Cengage Learning Emea, 4th ed. • L. von Auer (2011), Ökonometrie: Eine Einführung, Springer, 5. Aufl. 0.1 Struktur ökonomischer Daten Querschnittsdaten: • Daten, die zu einem Zeitpunkt (der gelegentlich auch etwas variieren kann) an einer Untersuchungseinheit erhoben werden (die Anordnung der Einheiten im Datensatz spielt dabei für die Analyse keine Rolle) • Ausgangspunkt ist meist die implizite Annahme, dass es sich bei der Erhebung um eine Zufallsstichprobe handelt • Beispiele: Personen- oder Haushaltsdaten (z.B. Einkommen), Unternehmensdaten (z.B. Umsätze), Städte- oder Länderdaten (z.B. Arbeitslosigkeit) --------------------------------------------------------------------------------------------------------Beispiel: Beobachtungsnummer 1 2 3 : 10 11 12 Land A B C : J K L Bevölkerungsdichte 212,4 623,7 93,1 : 287,4 166,2 388,1 BIP pro Einwohner 20116 24966 19324 : 23136 20707 23624 Erwerbstät. Landwirt. 9,8 3,4 23,6 : 8,8 14,1 9,6 Wachstum BIP 53 73,1 47,9 : 59,4 74 54,3 Geburtenziffer 8,4 6,1 12,3 : 12,4 13 6,9 Wanderungssaldo -0,7 3,4 -1,9 : 1,7 3,6 -0,4 --------------------------------------------------------------------------------------------------------2 Zeitreihendaten: • Daten, die bei einer Variablen oder verschiedenen Variablen über mehrere aufeinander folgende Zeitperioden erhoben werden • Zeit ist hier eine wichtige Dimension (d.h. Beobachtungen sind meist über die Zeit korreliert), so dass die Anordnung der Beobachtungen im Datensatz potentiell wichtige Informationen enthält • Die Häufigkeit der Datensammlung über die Zeit kann stark variieren, z.B. täglich, wöchentlich, monatlich, quartalsweise oder jährlich mit möglichen Saisoneffekten bei unterjährigen Daten • Beispiele: Makroökomische Daten (z.B. Einkommen, Konsum, Investitionen, Geldangebot, Preisindex), Finanzmarktdaten (z.B. Aktienkurse) --------------------------------------------------------------------------------------------------------Beispiel: Beobachtungsnummer Jahr Inflation USA Arbeitslosenquote USA 1 2 1948 1949 8,1 -1,2 3,8 5,9 3 1950 1,3 5,3 4 1951 7,9 3,3 : : : : 54 2001 2,8 4,7 55 2002 1,6 5,8 3 --------------------------------------------------------------------------------------------------------- Aggregierte (gepoolte) Querschnittsdaten: • Daten, die sowohl Querschnitts- als auch Zeitreiheneigenschaften aufweisen, da mehrere Querschnittsdatensätze unabhängig voneinander über verschiedene Perioden erhoben und zur Erhöhung des Stichprobenumfangs miteinander verknüpft werden • Obwohl die Anordnung der Beobachtungen im Datensatz nicht wesentlich ist, wird die entsprechende Periode als wichtige Variable erfasst • Daten werden meist wie herkömmliche Querschnittsdaten analysiert • Beispiele: Personen- oder Haushaltsdaten (z.B. Einkommen, Ausgaben) in verschiedenen Jahren --------------------------------------------------------------------------------------------------------Beispiel: Beobachtungsnummer Jahr Hauspreis Vermögenssteuer Grundstücksgröße 1 2 1993 1993 85500 67300 42 36 1600 1440 : : : : : 250 1993 243600 41 2600 251 1995 65000 16 1250 : : : : : 520 1995 57200 16 1100 ---------------------------------------------------------------------------------------------------------4 Paneldaten: • Daten, die sowohl eine Zeitreihen- als auch eine Querschnittsdimension haben, wobei hier im Unterschied zu aggregierten Querschnittsdaten dieselben Untersuchungseinheiten (z.B. Personen, Unternehmen, Länder) über mehrere Zeitperioden beobachtet werden • Oft ist die Anzahl der Einheiten deutlich größer als die Zeitdimension • Anordnung der Daten erfolgt oft erst nach Einheiten und dann Perioden • Daten bieten die Möglichkeit für nicht beobachtbare Charakteristika der Einheiten zu kontrollieren sowie verzögerte Reaktionen zu untersuchen • Beispiele: Personen- oder Haushaltspaneldaten (z.B. SOEP), Unternehmenspaneldaten (z.B. MIP), Länderpaneldaten --------------------------------------------------------------------------------------------------------Beispiel: Beobachtungsnummer 1 2 3 4 : 299 300 Haushalt 1 1 2 2 : 150 150 Jahr 2000 2005 2000 2005 : 2000 2005 Größe 5 6 2 2 : 3 4 Nettoeinkommen 3200 3500 2900 3000 : 1793 2380 Raucherhaushalt ja ja nein nein : nein nein 5 --------------------------------------------------------------------------------------------------------- 0.2 Lineare Regressionsmodelle (mit Querschnittsdaten) Multiples lineares Regressionsmodell y = β 0 + β1x1 + β 2 x 2 + β 3 x 3 + + β k-1x k-1 + β k x k + ε Dabei gilt: y: Endogene, erklärte oder abhängige Variable x1, x2, …, xk-1, xk: Exogene, erklärende oder unabhängige Variablen β0: Konstante β1: Dieser Parameter misst den Effekt einer Veränderung von x1 auf y, falls alle anderen beobachteten und unbeobachteten Faktoren konstant sind … βk: Dieser Parameter misst den Effekt einer Veränderung von xk auf y, falls alle anderen beobachteten und unbeobachteten Faktoren konstant sind ε: Störterm Wesentliche Annahme für den Störterm ε: E(ε|x1 , x 2 , , xk ) = 0 Diese Annahme besagt, dass der Störterm ε im Erwartungswert von den erklärenden Variablen x1, x2, …, xk unabhängig (mean independent) ist. 6 Für die weitere Analyse linearer Regressionsmodelle benötigt man eine Stichprobe vom Umfang n aus der Grundgesamtheit. Multiples lineares Regressionsmodell mit k erklärenden Variablen: {(xi1, xi2,…, xik, yi), i = 1,…, n} Unter Einbeziehung der Beobachtungen i = 1,…, n ergibt sich folgendes lineares Regressionsmodell: y i = β0 + β1x i1 + β 2 x i2 + + β k x ik + ε i Dabei ist z.B. xik der Wert der erklärenden Variablen k bei Beobachtung i. Wesentliche Aufgabe der Regressionsanalyse: Schätzung der unbekannten Regressionsparameter β0, β1, β2,… Methode der kleinsten Quadrate Optimierungsproblem bei der Methode der kleinsten Quadrate im multiplen linearen Regressionsmodell: n min 0 , 1 , 2 ,..., k (y - - x i 0 1 i1 - 2 x i2 - ... - k x ik ) 2 i=1 7 Daraus folgen die Bedingungen erster Ordnung für die k+1 geschätzten Regressionsparameter: n (y - βˆ - βˆ x i 0 1 i1 - βˆ 2 x i2 - - βˆ k x ik ) = 0 i=1 n x i1 (yi - βˆ 0 - βˆ 1x i1 - βˆ 2 x i2 - - βˆ k x ik ) = 0 i2 (yi - βˆ 0 - βˆ 1x i1 - βˆ 2 x i2 - - βˆ k x ik ) = 0 ik (yi - βˆ 0 - βˆ 1x i1 - βˆ 2 x i2 - - βˆ k x ik ) = 0 i=1 n x i=1 ... n x i=1 OLS-Regressionswerte („fitted values“) sind geschätzte Werte der abhängigen Variablen: ŷ i = βˆ 0 + βˆ 1x i1 + βˆ 2 x i2 + + βˆ k x ik für i = 1, ,n OLS-Regressionsfunktion: ŷ = βˆ 0 + βˆ 1x1 + βˆ 2 x 2 + + βˆ k x k 8 Interpretation der geschätzten Parameter in multiplen linearen Regressionsmodellen: ŷ = βˆ 0 + βˆ 1x1 + βˆ 2 x 2 + + βˆ k x k ŷ = βˆ 1x1 + βˆ 2 x 2 + + βˆ k x k Der geschätzte Parameter für die erklärende Variable x1 gibt die Veränderung des Regressionswertes an, falls x1 um eine Einheit steigt und alle anderen erklärenden Variablen x2, x3, x4,…, xk konstant gehalten werden, d.h.: ŷ = βˆ 1x1 Der geschätzte Parameter für die erklärende Variable x2 gibt die Veränderung des Regressionswertes an, falls x2 um eine Einheit steigt und alle anderen erklärenden Variablen x1, x3, x4,…, xk konstant gehalten werden, d.h.: ŷ = βˆ 2 x 2 Die geschätzten Parameter können somit als geschätzte partielle Effekte interpretiert werden, d.h. bei der Schätzung des Effektes einer Variablen wird für die anderen erklärenden Variablen kontrolliert. Der große Vorteil der Regressionsanalyse (bzw. allgemein ökonometrischer Analysen) ist somit, dass eine ceteris paribus Betrachtung vorgenommen werden kann, ohne dass ein kontrolliertes Experiment durchgeführt werden muss. 9 Residuen (geschätzte Störterme): Differenz zwischen den tatsächlich beobachteten Werten der abhängigen Variablen und der OLS-Regressionswerte. εˆ i = y i - yˆ i = y i - βˆ 0 - βˆ 1x i1 - βˆ 2 x i2 - - βˆ k x ik für i = 1,…, n Alternative Darstellung linearer Regressionsmodelle: y i = yˆ i + εˆ i = βˆ 0 + βˆ 1x i1 + βˆ 2 x i2 + + βˆ k x ik + εˆ i für i = 1,…, n Gesamte Abweichungsquadratsumme (Variation der endogenen Variable bzw. „total sum of squares“) : n SST = (y - y) 2 i i=1 Erklärte Abweichungsquadratsumme (Teil der Variation, der durch die Werte der exogenen Variablen erklärt wird bzw. „explained sum of squares“): n SSE = n (yˆ i - y)ˆ = 2 ˆ (y y) i i=1 i=1 2 Residualabweichungsquadratsumme (Teil der Variation, der nicht auf die Werte der exogenen Variablen zurückzuführen ist bzw. „residual sum of squares“): n SSR = n (εˆ i - ε)ˆ = 2 ˆ ε i i=1 i=1 2 Es gilt: SST = SSE + SSR bzw. SSR SSE + =1 SST SST 10 Bestimmtheitsmaß (Determinationskoeffizient): Anteil der Variation der abhängigen Variablen yi, der durch die OLS-Regressionsfunktion erklärt wird R2 = SSE SSR =1SST SST Das Bestimmtheitsmaß entspricht auch dem quadrierten Korrelationskoeffizienten zwischen den abhängigen Variablen und den OLS-Regressionswerten: 2 2 ˆ ˆ ˆ (y y)(y y) (y y)(y y) i i i i 2 i=1 i=1 R = n = n n n 2 2 2 2 ˆ ˆ ˆ (y y) (y y) (y y) (y y) i i i i i=1 i=1 i=1 i=1 n n Eigenschaften des Bestimmtheitsmaßes: • 0 ≤ R2 ≤ 1 • R2 sinkt niemals, wenn eine weitere (möglicherweise irrelevante) erklärende Variable hinzugefügt wird (da SSR in diesem Fall niemals ansteigt) • Aus diesem Grund ist R2 ein schlechtes Maß zur Beurteilung der Güte eines linearen Regressionsmodells (auch das angepasste Bestimmtheitsmaß, das die Anzahl der erklärenden Variablen berücksichtigt, ist kein generell geeignetes Maß zur Beurteilung der Güte eines linearen Regressionsmodells) 11 --------------------------------------------------------------------------------------------------------Beispiel: Erklärung von Löhnen (I) Mit Hilfe eines linearen Regressionsmodells soll der Effekt der Ausbildungszeit in Jahren (educ), der Berufserfahrung in Jahren (exper) und der Betriebszugehörigkeit in Jahren (tenure) auf den Logarithmus des Stundenlohns (logwage) untersucht werden: logwage = β0 + β1educ + β 2exper + β3tenure + ε Dabei wurde folgende OLS-Regressionsfunktion geschätzt: ˆ logwage= 0,284 + 0,092educ + 0,0041exper + 0,022tenure Interpretation: • Geschätzter positiver Einfluss der Ausbildungszeit: Falls exper und tenure konstant gehalten werden, führt eine um ein Jahr höhere Ausbildungszeit zu einer erwarteten Erhöhung des Logarithmus des Lohnes um 0,092 • Entsprechend liegen geschätzte positive Effekte von exper und tenure vor, wenn jeweils die anderen erklärenden Variablen konstant gehalten werden --------------------------------------------------------------------------------------------------------- 12 --------------------------------------------------------------------------------------------------------Beispiel: Erklärung von Löhnen (II) (STATA-Output) reg logwage educ exper tenure Source | SS df MS -------------+-----------------------------Model | 46.8741806 3 15.6247269 Residual | 101.455582 522 .194359353 -------------+-----------------------------Total | 148.329763 525 .282532881 Number of obs F( 3, 522) Prob > F R-squared Adj R-squared Root MSE = = = = = = 526 80.39 0.0000 0.3160 0.3121 .44086 -----------------------------------------------------------------------------logwage | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------educ | .092029 .0073299 12.56 0.000 .0776292 .1064288 exper | .0041211 .0017233 2.39 0.017 .0007357 .0075065 tenure | .0220672 .0030936 7.13 0.000 .0159897 .0281448 _cons | .2843595 .1041904 2.73 0.007 .0796755 .4890435 ------------------------------------------------------------------------------ --------------------------------------------------------------------------------------------------------- 13 0.3 Erwartungswert und Varianz von OLS-Schätzern Annahmen zur Betrachtung des Erwartungswerts von OLS-Schätzern: • Annahme A1: Linearität in den Parametern Der Zusammenhang zwischen der abhängigen Variablen y und den erklärenden Variablen x1, x2,…, xk ist linear in den Parametern, d.h. es gilt also y = β0 + β1x1 + β2x2 +…+ βkxk + ε • Annahme A2: Zufallsstichprobe Es liegt eine zufällige Stichprobe vom Umfang n aus der Grundgesamtheit vor mit {(xi1, xi2,…, xik, yi), i = 1,…, n}, so dass für eine zufällig ausgewählte Beobachtung i gilt: yi = β0 + β1xi1 + β2xi2 +…+ βkxik + εi • Annahme A3: Keine perfekte Kollinearität In der Stichprobe (und daher auch in der Grundgesamtheit) ist keine der erklärenden Variablen konstant und es besteht keine exakte lineare Beziehung zwischen den erklärenden Variablen • Annahme A4: Bedingter Erwartungswert von ε ist null Es gilt also E(ε|x1, x2,…, xk) = 0 Unter diesen vier Annahmen sind alle mit der OLS-Methode geschätzten Parameter erwartungstreu, d.h.: E(βˆ h ) = βh für h = 0, 1,…, k 14 Annahmen zur Betrachtung der Varianz von OLS-Schätzern: • Annahmen A1 bis A4 • Annahme A5: Homoskedastizität Die bedingte Varianz des Fehlerterms ε ist konstant, d.h. es gilt Var(ε|x1, x2,…, xk) = σ2. Falls dies nicht zutrifft, d.h. wenn die Varianz von den erklärenden Variablen abhängt, liegt Heteroskedastizität vor. → Die Annahmen A1 bis A5 werden (im Falle von Regressionsanalysen mit Querschnittsdaten) auch als Gauss-Markov-Annahmen bezeichnet Damit ergibt sich unter den Annahmen A1 bis A5 für die Varianz der mit OLS geschätzten Steigungsparameter in linearen Regressionsmodellen: Var(βˆ h ) = σ2 n (1-R 2h ) (x ih -x h ) 2 σ2 = (1-R 2h )SSTh für h = 1,…, k i=1 Dabei stellt Rh2 das Bestimmtheitsmaß bei einer Regression von xh auf alle anderen erklärenden Variablen (einschließlich einer Konstante) dar. → Während die Annahme der Homoskedastizität unwesentlich für die Erwartungstreue der geschätzten Parameter ist, gilt obige Varianz nur unter dieser Annahme, nicht aber bei Heteroskedastizität 15 Schätzung der Varianz σ2 des Fehlerterms ε: Die Schätzung von σ2 ist die Grundlage für die Schätzung der Varianz der (mit OLS) geschätzten Regressionsparameter Da σ2 = E(ε2), wäre folgender Schätzer für σ2 denkbar: 1 n 2 SSR ε̂ i = n i=1 n Allerdings ist dieser Schätzer verzerrt. Ein erwartungstreuer Schätzer ergibt sich folgendermaßen: 1 n 2 SSR ˆ σ̂ = ε = i n-k-1 n-k-1 i=1 2 Der (zwar nicht erwartungstreue, aber konsistente, siehe später) Schätzer für die Standardabweichung σ des Fehlerterms ε („standard error of the regression, SER“) lautet dann: σˆ = σˆ = 2 1 n 2 εˆ i n-k-1 i=1 16 Damit kann nun die Varianz der mit OLS geschätzten Steigungsparameter in linearen Regressionsmodellen erwartungstreu geschätzt werden: 2 σ̂ ˆ ˆh) = Var(β (1-R 2h )SSTh für h = 1,…, k Standardabweichung der mit OLS geschätzten Steigungsparameter: Var(βˆ h ) = σ 2 h für h = 1,…, k (1-R )SSTh Die Standardabweichung kann dann folgendermaßen geschätzt werden: ˆ ˆh) = Var(β σ̂ 2 h für h = 1,…, k (1-R )SSTh Wichtig ist dabei, dass die Verwendung dieser Schätzer insbesondere auf der Annahme A5 der Homoskedastizität beruht. Bei Heteroskedastizität liegt dagegen eine verzerrte Schätzung für die Varianz der mit OLS geschätzten Steigungsparameter vor (obwohl Heteroskedastizität keinen Einfluss auf die Erwartungstreue der geschätzten Regressionsparameter hat). 17 Falls die Annahmen A1 bis A5 gelten, ergibt sich: Die OLS-Schätzer sind die besten linearen unverzerrten Schätzer der Regressionsparameter in linearen Regressionsmodellen („BLUE, best linear unbiased estimator“) Bestandteile von BLUE: • „Unverzerrt“ bedeutet, dass der Schätzer erwartungstreu ist • „Linear“ bedeutet, dass der Schätzer eine lineare Funktion der Daten und der abhängigen Variablen darstellt • „Beste“ bedeutet, dass der Schätzer die geringste Varianz besitzt Im Einklang mit dem Gauss-Markov-Theorem haben OLS-Schätzer damit in der Klasse aller linearen und unverzerrten Schätzer die geringste Varianz. Voraussetzung für diese Eigenschaft ist aber die Gültigkeit aller zuvor betrachteten Annahmen A1 bis A5. 18 0.4 Testen von Hypothesen über Regressionsparameter Zusätzliche Annahme A6: Normalverteilung Der Störterm ε ist von den erklärenden Variablen x1, x2, …, xk unabhängig und normalverteilt mit einem Erwartungswert von null und einer Varianz von σ2, d.h. es gilt: ε ~ N(0; σ2) → Die Annahmen A1 bis A6 werden auch als klassische lineare Modellannahmen bezeichnet. Der Ansatz wird dementsprechend auch als klassisches lineares Regressionsmodell bezeichnet. Mit den Annahmen A1 bis A6 gilt für die abhängige Variable: y|x1 , x 2 ,…, x k N( β0 + β1x1 + β2 x 2 + + βk x k ; σ 2 ) Es ergibt sich: Die OLS-Schätzer sind die besten unverzerrten Schätzer der Regressionsparameter in linearen Regressionsmodellen („BUE, best unbiased estimator“). Damit haben die OLS-Schätzer nicht nur in der Klasse aller linearen unverzerrten Schätzer die geringste Varianz, sondern in der Klasse aller unverzerrten Schätzer. 19 Falls Annahme A6 und damit ein normalverteilter Störterm vorliegt, sind auch die mit OLS geschätzten Steigungsparameter in linearen Regressionsmodellen normalverteilt, d.h. es gilt (h = 1,…, k): βˆ h N[β h ; Var(βˆ h )] bzw. βˆ h σ2 N β h ; n (1-R 2h ) (x ih -x h ) 2 i=1 Damit ergibt sich (h = 1,…, k): βˆ h -β h Var(βˆ h ) βˆ h -β h σ N(0; 1) bzw. N(0; 1) n (1-R ) (x ih -x h ) 2 2 h i=1 Zudem gilt, dass jede lineare Funktion der mit OLS geschätzten Regressionsparameter β0, β1,…, βk auch normalverteilt ist. 20 Allerdings sind die Varianzen oder Standardabweichungen der mit OLS geschätzten Steigungsparameter in linearen Regressionsmodellen in der Regel nicht bekannt und müssen deshalb geschätzt werden. Falls die Annahmen A1 bis A6 gelten, ergibt sich: βˆ h -β h ˆ ˆh) Var(β βˆ h -β h σ̂ t n-k-1 bzw. t n-k-1 n (1-R ) (x ih -x h ) 2 2 h i=1 Dabei ist k+1 die Anzahl der unbekannten Regressionsparameter. t-Test Die wichtigste zu testende Nullhypothese in empirischen Anwendungen lautet: H 0 : β h = 0 für h = 1,…, k Die Nullhypothese über den Steigungsparameter βh impliziert, dass die erklärende Variable xh keinen partiellen Effekt auf die abhängige Variable y hat. Als Prüfgröße wird hierzu folgende t-Statistik (t-Wert) betrachtet, die die geschätzte Standardabweichung des geschätzten Parameters einbezieht: t = t βˆ = t h = h β̂ h ˆ ˆh) Var(β 21 Die t-Statistik ist bei Gültigkeit der Nullhypothese t-verteilt mit n-k-1 Freiheitsgraden. In empirischen Analysen wird bei der Überprüfung von H0: βh = 0 in der Regel eine zweiseitige Fragestellung untersucht. Dabei gilt für die Alternativhypothese: H1: β h 0 für h = 1,…, k Die Nullhypothese wird somit verworfen, falls gilt: t > t n-k-1;1-α/2 Verallgemeinerung der Nullhypothese: H 0 : β h = a h für h = 1,…, k Die Nullhypothese wird verworfen, wenn βh deutlich von ah abweicht. Als Prüfgröße wird jetzt folgende allgemeinere t-Statistik betrachtet: t= β̂ h -a h ˆ ˆh) Var(β Bei Gültigkeit von H0: βh = ah ist die t-Statistik wiederum t-verteilt mit n-k-1 Freiheitsgraden. Die Nullhypothese H0: βh = ah wird somit bei einem Signifikanzniveau von α zugunsten der Alternativhypothese H1: βh ≠ ah verworfen, falls gilt: |t| > tn-k-1;1-α/2. 22 --------------------------------------------------------------------------------------------------------Beispiel: Effekt von Luftverschmutzung auf Immobilienpreise (I) Mit einem linearen Regressionsmodell soll mit einer Stichprobe von n = 506 Gemeinden der Effekt des Logarithmus der Stickoxide in der Luft (lognox), des Logarithmus der gewichteten Entfernung zu fünf Beschäftigungszentren (logdist), der durchschnittlichen Anzahl an Räumen in Häusern (rooms) und des Verhältnisses von Lehrern und Schülern in den Schulen (stratio) auf den Logarithmus des Medians der Immobilienpreise (logprice) untersucht werden: logprice = β0 + β1lognox + β 2logdist + β3rooms + β4stratio + ε Dabei wurde folgende OLS-Regressionsfunktion geschätzt (R2 = 0,584): ˆ logprice = 11,08 - 0,954lognox - 0,134logdist + 0,255rooms - 0,052stratio (0,32) (0,117) (0,043) (0,019) (0,006) Aufgrund der recht hohen einfachen t-Werte haben alle erklärenden Variablen bei üblichen Signifikanzniveaus (z.B. 0,05, 0,01) einen signifikanten Effekt. Eine weitere interessante Nullhypothese bezieht sich auf die Überprüfung, ob β1 dem Wert -1 entspricht, d.h. H0: β1 = -1. Dabei ergibt sich t = (-0,954+1)/0,117 = 0,393. Damit kann bei üblichen Signifikanzniveaus die Nullhypothese nicht verworfen werden (d.h. die geschätzte Elastizität unterscheidet sich nicht signifikant vom Wert -1). 23 --------------------------------------------------------------------------------------------------------- --------------------------------------------------------------------------------------------------------Beispiel: Effekt von Luftverschmutzung auf Immobilienpreise (II) (STATA-Output) reg logprice lognox logdist rooms stratio Source | SS df MS -------------+-----------------------------Model | 49.3987581 4 12.3496895 Residual | 35.1834907 501 .070226528 -------------+-----------------------------Total | 84.5822488 505 .167489602 Number of obs F( 4, 501) Prob > F R-squared Adj R-squared Root MSE = = = = = = 506 175.86 0.0000 0.5840 0.5807 .265 -----------------------------------------------------------------------------logprice | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------lognox | -.9535397 .1167418 -8.17 0.000 -1.182904 -.7241759 logdist | -.13434 .0431032 -3.12 0.002 -.2190254 -.0496547 rooms | .254527 .0185303 13.74 0.000 .2181203 .2909338 stratio | -.0524512 .0058971 -8.89 0.000 -.0640373 -.0408651 _cons | 11.08386 .3181115 34.84 0.000 10.45887 11.70886 ------------------------------------------------------------------------------ --------------------------------------------------------------------------------------------------------- 24 Es lassen sich auch Hypothesen über Linearkombinationen von Regressionsparametern testen. Mit beliebigen Werten r1, r2,…,rk und c kann die Nullhypothese folgendermaßen spezifiziert werden: H 0 : r1β1 + r2β 2 + + rkβ k = c bzw. H 0 : r1β1 + r2β 2 + + rkβ k - c = 0 Mit einem Schätzer der Varianz der Linearkombination der Parameter ergibt sich folgende t-Statistik, die bei Gültigkeit der Nullhypothese t-verteilt ist mit nk-1 Freiheitsgraden: t= r1βˆ 1 + + rkβˆ k - c ˆ 1βˆ 1 + + rkβˆ k ) Var(r Eine häufig betrachtete Nullhypothese ist die Überprüfung der Gleichheit zweier Parameter, z.B.: H 0 : β1 = β 2 bzw. H 0 : β1 - β 2 = 0 Die t-Statistik lautet: t= βˆ 1 -βˆ 2 ˆ ˆ 1 -βˆ 2 ) Var(β H0 wird also bei einem Signifikanzniveau von α (in zweiseitigen Fragestellungen) verworfen, falls |t| > tn-k-1;1-α/2. 25 F-Test Schließlich lassen sich auch multiple lineare Restriktionen überprüfen. Ausgangspunkt ist folgendes (unrestringiertes) lineares Regressionsmodell: y = β0 + β1x1 + β 2 x 2 + + βkx k + ε Bei der Überprüfung, ob q erklärende Variablen gemeinsam keinen Effekt auf die abhängige Variable haben, gilt für die Nullhypothese: H 0 : β k-q+1 = 0, β k-q+2 = 0, , β k = 0 bzw. H 0 : β k-q+1 = β k-q+2 = = βk = 0 Das unter H0 restringierte lineare Regressionsmodell lautet dann: y = β0 + β1x1 + β 2 x 2 + + β k-q x k-q + ε Als Prüfgröße für den F-Test wird folgende F-Statistik (F-Wert) betrachtet: SSR r -SSR ur SSR r -SSR ur n-k-1 q F= = SSR ur SSR ur q n-k-1 Bei Gültigkeit von H0 ist diese Prüfgröße F-verteilt mit q (d.h. der Anzahl der überprüften Ausschlussrestriktionen) und n-k-1 Freiheitsgraden, d.h.: F Fq;n-k-1 H0: βk-q+1 = βk-q+2 =⋯= βk = 0 wird bei einem Signifikanzniveau von α zugunsten 26 der Alternativhypothese verworfen, falls F > Fq;n-k-1;1-α. Alternative Darstellung der F-Statistik mit den Bestimmtheitsmaßen R2r und R2ur der restringierten und unrestringierten linearen Regressionsmodelle: R 2ur -R 2r R 2ur -R 2r n-k-1 q F= = 2 1-R ur 1-R 2ur q n-k-1 Der am häufigsten betrachtete F-Test bezieht sich auf die Untersuchung der folgenden Nullhypothese: H 0 : β1 = β 2 = = βk = 0 Dadurch ergibt sich folgendes restringiertes lineares Regressionsmodell: y = β0 + ε Für solche restringierten linearen Regressionsmodelle erhält man R2r = 0, so dass sich aufgrund der q = k vorliegenden Ausschlussrestriktionen folgende spezifische F-Statistik ergibt (wobei R2 das gewöhnliche Bestimmtheitsmaß bei einem linearen Regressionsmodell mit k erklärenden Variablen darstellt): R2 R 2 n-k-1 k F= = 2 1-R 1-R 2 k n-k-1 27 --------------------------------------------------------------------------------------------------------Beispiel: Erklärung von Geburtsgewichten (I) Mit Hilfe eines linearen Regressionsmodells soll der Effekt der durchschnittlichen Anzahl der von der Mutter während der Schwangerschaft gerauchten Zigaretten (cigs), der Geburtsrangfolge des Kindes (parity), des jährlichen Familieneinkommens (faminc), der Anzahl der Schuljahre der Mutter (motheduc) und der Anzahl der Schuljahre des Vaters (fatheduc) auf das Geburtsgewicht des Kindes (bwght) untersucht werden: bwght = β0 + β1cigs + β 2 parity + β3faminc + β 4 motheduc + β5fatheduc + ε Dabei soll zu einem Signifikanzniveau von 0,05 die Nullhypothese überprüft werden, dass die elterliche Anzahl der Schuljahre keinen Einfluss auf das Geburtsgewicht hat, d.h. H0: β4 = β5 = 0: • Für n = 1191 Geburten werden das unrestringierte und das restringierte Regressionsmodell mit OLS geschätzt. Dabei ergibt sich R2r = 0,0364 und R2ur = 0,0387. • Da n-k-1 = 1191 - 6 = 1185 und q = 2 ergibt sich für die F-Statistik: F = [(0,0387-0,0364)/(1-0,0387)](1185/2) = 1,42 • Der Schrankenwert aus der F-Verteilung mit 2 und 1185 Freiheitsgraden beträgt F2;1185;0,95 = 3,00. Damit kann die Nullhypothese zum 5%-Signifikanzniveau nicht verworfen werden. 28 --------------------------------------------------------------------------------------------------------- --------------------------------------------------------------------------------------------------------Beispiel: Erklärung von Geburtsgewichten (II) (STATA-Output) reg bwght cigs parity faminc motheduc fatheduc Source | SS df MS -------------+-----------------------------Model | 18705.5567 5 3741.11135 Residual | 464041.135 1185 391.595895 -------------+-----------------------------Total | 482746.692 1190 405.669489 Number of obs F( 5, 1185) Prob > F R-squared Adj R-squared Root MSE = = = = = = 1191 9.55 0.0000 0.0387 0.0347 19.789 -----------------------------------------------------------------------------bwght | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------cigs | -.5959362 .1103479 -5.40 0.000 -.8124352 -.3794373 parity | 1.787603 .6594055 2.71 0.007 .4938709 3.081336 faminc | .0560414 .0365616 1.53 0.126 -.0156913 .1277742 motheduc | -.3704503 .3198551 -1.16 0.247 -.9979957 .2570951 fatheduc | .4723944 .2826433 1.67 0.095 -.0821426 1.026931 _cons | 114.5243 3.728453 30.72 0.000 107.2092 121.8394 ------------------------------------------------------------------------------ --------------------------------------------------------------------------------------------------------- 29 --------------------------------------------------------------------------------------------------------Beispiel: Erklärung von Geburtsgewichten (III) (STATA-Output) reg bwght cigs parity faminc Source | SS df MS -------------+-----------------------------Model | 17579.8997 3 5859.96658 Residual | 465166.792 1187 391.884408 -------------+-----------------------------Total | 482746.692 1190 405.669489 Number of obs F( 3, 1187) Prob > F R-squared Adj R-squared Root MSE = = = = = = 1191 14.95 0.0000 0.0364 0.0340 19.796 -----------------------------------------------------------------------------bwght | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------cigs | -.5978519 .1087701 -5.50 0.000 -.8112549 -.3844489 parity | 1.832274 .6575402 2.79 0.005 .5422035 3.122345 faminc | .0670618 .0323938 2.07 0.039 .0035063 .1306173 _cons | 115.4699 1.655898 69.73 0.000 112.2211 118.7187 ------------------------------------------------------------------------------ Testanweisung in STATA (nur direkt nach der OLS-Schätzung im unrestringierten Regressionsmodell möglich, Abweichung ergibt sich durch Rundungen): test motheduc=fatheduc=0 ( 1) ( 2) motheduc - fatheduc = 0 motheduc = 0 F( 2, 1185) = Prob > F = 1.44 0.2380 30 --------------------------------------------------------------------------------------------------------- 0.5 Asymptotische Eigenschaften Definition von Konsistenz: Falls Wn den Schätzer eines Parameters θ auf der Grundlage einer Stichprobe y1, y2,…,yn darstellt, ist Wn dann ein konsistenter Schätzer von θ, wenn für beliebige λ > 0 gilt, dass P(|Wn – θ| > λ) für n → ∞ gegen null konvergiert. In diesem Fall konvergiert Wn stochastisch gegen θ, d.h. plim(Wn) = θ. Konsistenz von OLS-Schätzern: • Falls die Annahmen A1 bis A4 gelten, sind OLS-Schätzer βh (h = 0,1,…, k) in linearen Regressionsmodellen konsistente Schätzer für βh, d.h. plim(βh) = βh • Damit sind für die Konsistenz von OLS-Schätzern dieselben Annahmen wie bei der Erwartungstreue ausreichend, d.h. z.B. A5 (Heteroskedastizität) muss nicht erfüllt sein. Tatsächlich muss für die Konsistenz von OLSSchätzern neben den Annahmen A1 bis A3 lediglich eine Abschwächung von A4 vorliegen, d.h. A4‘: E(ε) = 0 und Cov(xh, ε) = 0 (h = 1, 2,…, k). Inkonsistenz von OLS-Schätzern: • Zur Erinnerung: Falls E(ε|x1, x2,…, xk) ≠ 0, d.h. also A4 nicht gilt, sind die OLS-Schätzer in linearen Regressionsmodellen nicht erwartungstreu • Analog ergibt sich die Inkonsistenz aller OLS-Schätzer, falls ε mit einer beliebigen erklärenden Variablen korreliert ist, d.h. also falls A4‘ nicht gilt 31 Asymptotische Verteilungen bei OLS-Schätzern: Die exakte Normalverteilung der OLS-Schätzer in linearen Regressionsmodellen (und damit die exakte t- und F-Verteilung der t- und F-Statistiken) basiert auf Annahme A6, d.h. ε ~ N(0; σ2). Jedoch kann auch ohne A6 für Funktionen der OLS-Schätzer eine asymptotische Normalverteilung nachgewiesen werden. Falls die Annahmen A1 bis A5 gelten, ergibt sich (auch ohne Annahme A6) für die mit OLS geschätzten Steigungsparameter in linearen Regressionsmodellen: β̂ h -β h ˆ ˆh) Var(β a N(0; 1) Diese Eigenschaft widerspricht nicht der vorherigen Eigenschaft, wonach diese Funktion exakt t-verteilt ist mit n-k-1 Freiheitsgraden, falls die Annahmen A1 bis A6 gelten, da auch analog folgende Darstellung möglich ist (da sich die t-Verteilung bei einer Zunahme der Anzahl an Freiheitsgraden der Standardnormalverteilung annähert): β̂ h -β h ˆ ˆh) Var(β a t n-k-1 32 Folge: Damit können auch für den Fall, dass der Störterm ε nicht normalverteilt ist, die bisher betrachteten t- und F-Tests durchgeführt und Konfidenzintervalle konstruiert werden. Voraussetzung ist aber, dass der Stichprobenumfang n hinreichend groß ist. Bei kleinem n (bzw. kleiner Anzahl an Freiheitsgraden n-k-1) ist z.B. die Approximation der t-Statistik an die t-Verteilung unzureichend. Asymptotische Effizienz: Unter den Gauss-Markov-Annahmen (also unter den Annahmen A1 bis A5) sind OLS-Schätzer βh (h = 0, 1,…, k) in einer Klasse konsistenter Schätzer βh der Regressionsparameter in linearen Regressionsmodellen asymptotisch effizient, d.h. für die asymptotische Varianz Avar gilt: Avar[ n (βˆ h -β h )] Avar[ n (β h -β h )] 33 0.6 Heteroskedastizität Zuvor wurde für die Betrachtung der Varianz von OLS-Schätzern die Annahme 5 der Homoskedastizität diskutiert: • Falls Var(ε|x1, x2,…, xk) ≠ σ2, liegt Heteroskedastizität vor • Im Gegensatz z.B. zur Vernachlässigung relevanter erklärender Variablen, hat die Heteroskedastizität keinen Einfluss auf die Erwartungstreue oder Konsistenz von OLS-Schätzern. Allerdings hat Heteroskedastizität einen Einfluss auf die (geschätzte) Varianz der mit OLS geschätzten Steigungsparameter in linearen Regressionsmodellen. • Es wurde bei Homoskedastizität, d.h. unter den Annahmen A1 bis A5, für die Varianz der geschätzten Steigungsparameter gezeigt (mit Rh2 als Bestimmtheitsmaß einer Regression von xh auf alle anderen erklärenden Variablen): Var(βˆ h ) = σ2 n (1-R 2h ) (x ih -x h ) 2 σ2 = (1-R 2h )SSTh für h = 1,…, k i=1 • Damit ergibt sich bei Homoskedastizität mit einem konsistenten Schätzer der Standardabweichung σ folgende geschätzte Standardabweichung: ˆ ˆh) = Var(β σ̂ 2 h (1-R )SSTh für h = 1,…, k 34 • Da die Varianz lediglich bei Homoskedastizität, nicht aber bei Heteroskedastizität gilt, ist auch diese geschätzte Standardabweichung bei Heteroskedastizität ein verzerrter Schätzer der Standardabweichung der OLS-Schätzer • Damit sind die geschätzten Standardabweichungen bei Heteroskedastizität nicht mehr für die Konstruktion von Konfidenzintervallen und t-Statistiken gültig. Das heißt, die t-Statistiken sind bei Heteroskedastizität (auch bei großen Stichprobenumfängen) nicht mehr t-verteilt. Ebenso sind F-Statistiken bei Heteroskedastizität nicht mehr F-verteilt. • Schließlich gilt bei Heteroskedastizität nicht mehr die wünschenswerte BLUE-Eigenschaft (bzw. Effizienz) von OLS-Schätzern sowie die Eigenschaft der asymptotischen Effizienz. Es lassen sich bei Kenntnis der Form der Heteroskedastizität gegenüber den OLS-Schätzern effizientere Schätzer ermitteln. Ein Standardtest zur Überprüfung von Homoskedastizität ist (neben z.B. dem White-Test) der Breusch-Pagan-Test. Die Nullhypothese lautet: H0: Var(ε|x1, x 2 ,…,x k ) = σ2 bzw. H0: E(ε 2 |x1, x 2 ,…,x k ) = E(ε2 ) = σ2 Falls H0 nicht gilt, ist ε2 eine Funktion einer oder mehrerer erklärender Variablen. Bei der Betrachtung aller erklärenden Variablen und einer linearen Funktion ergibt sich in diesem Fall mit einem Störterm v mit (bedingtem) Erwar35 tungswert null: ε 2 = δ0 + δ1x1 + δ 2 x 2 + + δkx k + v Die Nullhypothese für Homoskedastizität lautet dann: H 0 : δ1 = δ 2 = = δk = 0 Da die εi unbekannt sind, werden diese durch ihre Schätzer ersetzt, d.h. den Residuen εi, so dass diese quadrierten Residuen auf die erklärenden Variablen regressiert werden: ε̂ 2 = δ0 + δ1x1 + δ 2 x 2 + + δkx k + v Ein hohes Bestimmtheitsmaß R2ε2 bei dieser Hilfsregression spricht für die Gültigkeit der Alternativhypothese, d.h. für Heteroskedastizität. Eine Version einer Breusch-Pagan-Teststatistik lautet: BP = nR ε̂22 Bei Gültigkeit der Nullhypothese (d.h. bei Homoskedastizität) gilt: a BP χ 2k Damit wird die Nullhypothese der Homoskedastizität zugunsten der Alternativhypothese der Heteroskedastizität bei einem Signifikanzniveau α verworfen, falls (bei großem Stichprobenumfang n) für die Teststatistik gilt: BP > χ 2k;1-α 36 Falls die Nullhypothese bei einem geringen Signifikanzniveau verworfen und damit Heteroskedastizität nachgewiesen wird, sollte darauf reagiert werden: • Eine Möglichkeit ist die Verwendung von zu OLS alternativen Schätzverfahren wie z.B. die gewichtete Methode der kleinsten Quadrate („WLS, weighted least squares“). Dazu ist es allerdings wünschenswert, die genaue Form der Heteroskedastizität zu kennen. • Bei Heteroskedastizität stellt sich aber grundsätzlich die Frage, ob tatsächlich eine zu OLS alternative Schätzmethode angewendet werden sollte: Da die OLS-Schätzer auch bei Heteroskedastizität (unter den Annahmen A1 bis A4) erwartungstreu und konsistent sind, kann die Verwendung von OLS auch in diesem Fall weiterhin nützlich sein. • Für die Konstruktion von Konfidenzintervallen sowie die Durchführung von tund F-Tests sollten bei Heteroskedastizität allerdings dann die geschätzten Standardabweichungen der OLS-Schätzer korrigiert werden Dabei werden die unbekannten Varianzen σi2 der OLS-Schätzer durch die quadrierten Residuen εi2 (die sich aus der ursprünglichen OLS-Schätzung ergeben) ersetzt. Im linearen Regressionsmodell ergibt sich allgemein für die geschätzte Varianz der mit OLS geschätzten Steigungsparameter: 37 n ˆ ˆh) = Var(β 2 2 ˆ r ihεˆ i i=1 SSR 2h Dabei bezeichnen rih das Residuum für Beobachtung i, das bei der Regression von xh auf alle anderen erklärenden Variablen entsteht, und SSRh die Residualabweichungsquadratsumme aus dieser Regression. Für die geschätzte Standardabweichung der mit OLS geschätzten Steigungsparameter ergibt sich nach White (1980): n ˆ ˆh) = Var(β rˆ εˆ 2 2 ih i i=1 SSR h Auf dieser Grundlage sind verschiedene weitere geschätzte asymptotisch äquivalente Standardabweichungen entwickelt worden. Mit Hilfe dieser geschätzten Standardabweichungen können heteroskedastizitäts-robuste Konfidenzintervalle und vor allem t-Statistiken konstruiert werden. 38 --------------------------------------------------------------------------------------------------------Beispiel: Erklärung von Löhnen (I) Mit Hilfe eines linearen Regressionsmodells wird für n = 526 Personen erneut der Effekt der Ausbildungszeit in Jahren (educ), der Berufserfahrung in Jahren (exper), der quadrierten Berufserfahrung in Jahren (expersq), der Betriebszugehörigkeit in Jahren (tenure), der quadrierten Betriebszugehörigkeit in Jahren (tenuresq) sowie der drei kombinierten Familienstands- und Geschlechtsvariablen für verheiratete Männer (marrmale), verheiratete Frauen (marrfem) und unverheiratete Frauen (singfem) auf den Logarithmus des Stundenlohns (logwage) untersucht. Dabei wurde folgende OLS-Regressionsfunktion geschätzt, wobei jetzt neben den herkömmlichen auch die heteroskedastizitätsrobust geschätzten Standardabweichungen der geschätzten Parameter (eckige Klammern) ausgewiesen werden (R2 = 0,461): ˆ logwage = 0,321 + 0,213 marrmale - 0,198marrfem - 0,110singfem + 0,0789educ (0,100) (0,055) (0,058) (0,056) (0,0067) [0,109] [0,057] [0,058] [0,057] [0,0074] + 0,0268exper - 0,00054expersq + 0,0291tenure - 0,00053tenuresq (0,0055) (0,00011) (0,0068) (0,00023) [0,0051] [0,00011] [0,0069] [0,00024 ] 39 --------------------------------------------------------------------------------------------------------- --------------------------------------------------------------------------------------------------------Beispiel: Erklärung von Löhnen (II) (STATA-Output) reg logwage marrmale marrfem singfem educ exper expersq tenure tenuresq, robust Linear regression Number of obs F( 8, 517) Prob > F R-squared Root MSE = = = = = 526 51.70 0.0000 0.4609 .39329 -----------------------------------------------------------------------------| Robust logwage | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------marrmale | .2126756 .0571419 3.72 0.000 .1004167 .3249345 marrfem | -.1982677 .05877 -3.37 0.001 -.3137251 -.0828103 singfem | -.1103502 .0571163 -1.93 0.054 -.2225587 .0018583 educ | .0789103 .0074147 10.64 0.000 .0643437 .0934769 exper | .0268006 .0051391 5.22 0.000 .0167044 .0368967 expersq | -.0005352 .0001063 -5.03 0.000 -.0007442 -.0003263 tenure | .0290875 .0069409 4.19 0.000 .0154516 .0427234 tenuresq | -.0005331 .0002437 -2.19 0.029 -.0010119 -.0000544 _cons | .321378 .109469 2.94 0.003 .1063193 .5364368 ------------------------------------------------------------------------------ --------------------------------------------------------------------------------------------------------- 40 0.7 Zur Einbeziehung von abhängigen und erklärenden Variablen Logarithmierte und quadrierte Variablen: Lineare Regressionsmodelle können durch die Einbeziehung von (natürlich) logarithmierten und quadrierten Variablen auch nichtlineare Zusammenhänge abbilden Übersicht zur Einbeziehung logarithmierter Variablen: Lineares Regressionsmodell Abhängige Variable Erklärende Variable Interpretation des geschätzten Steigungsparameters Level-level y xh ∆y = βh∆xh Level-log y logxh ∆y ≈ (βh/100)%∆xh Log-level logy xh %∆y ≈ (100βh)∆xh Log-log logy logxh %∆y = βh%∆xh 41 --------------------------------------------------------------------------------------------------------Beispiel: Effekt von Luftverschmutzung auf Immobilienpreise Mit Hilfe eines linearen Regressionsmodells wird nun mit einer Stichprobe von n = 506 Gemeinden der Effekt des Logarithmus der Stickoxide in der Luft (lognox) und der durchschnittlichen Anzahl an Räumen in Häusern (rooms) auf den Logarithmus des Medians der Immobilienpreise (logprice) untersucht. Mit STATA haben sich dabei folgende OLS-Schätzergebnisse gezeigt (R2 = 0,514): reg logprice lognox rooms -----------------------------------------------------------------------------logprice | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------lognox | -.7176732 .0663397 -10.82 0.000 -.8480102 -.5873361 rooms | .3059183 .0190174 16.09 0.000 .268555 .3432816 _cons | 9.233737 .1877406 49.18 0.000 8.864885 9.602589 ------------------------------------------------------------------------------ Damit ergibt sich: • Eine Erhöhung der Stickoxide in der Luft um 1% (d.h. %∆nox = 1) führt zu einer Verminderung des erwarteten Medians der Immobilienpreise um 0,718% (falls rooms konstant gehalten wird) • Eine Erhöhung der durchschnittlichen Anzahl an Räumen in Häusern um eins (d.h. ∆rooms = 1) führt zu einer approximativen Erhöhung des erwarteten Medians der Immobilienpreise um 0,306∙100 = 30,6% (falls nox konstant gehalten wird) 42 --------------------------------------------------------------------------------------------------------- Quadrierte erklärende Variablen: Damit können wachsende oder sinkende (partielle) marginale Effekte in linearen Regressionsmodellen untersucht werden Zur Erinnerung: Falls y auf xh regressiert wird, gibt βh die Veränderung des OLS-Regressionswertes y an, falls xh um eine Einheit steigt (und alle anderen erklärenden Variablen konstant gehalten werden). Damit ist hier der (partielle) marginale Effekt konstant und hängt nicht von xh ab. Einbeziehung einer quadrierten erklärenden Variablen: y = β0 + β1x1 + β 2 x12 + β3x 2 + + β k-1x k-2 + β k x k-1 + ε In diesem Fall beschreibt β1 nicht die Veränderung von y in Bezug auf x1. Die OLS-Regressionsfunktion lautet: ŷ = βˆ 0 + βˆ 1x1 + βˆ 2 x12 + βˆ 3x 2 + + βˆ k-1x k-2 + βˆ k x k-1 Daraus folgt die Approximation: ŷ (βˆ 1 +2βˆ 2 x1 )x1 bzw. ŷ βˆ 1 + 2βˆ 2 x1 x 1 Damit hängt der (partielle) marginale Effekt von x1 auf y von den Werten von x1 ab. 43 Interaktionsterme: Diese Variablen erlauben, dass der partielle Effekt (bzw. die Elastizität oder Semi-Elastizität) einer erklärenden Variablen in linearen Regressionsmodellen von verschiedenen Werten einer anderen erklärenden Variablen abhängt Einbeziehung eines Interaktionsterms: y = β0 + β1x1 + β 2 x 2 + β3x1x 2 + β 4 x 3 + β k-1x k-2 + β k x k-1 + ε Auch in diesem Fall beschreibt β1 nicht die Veränderung von y in Bezug auf x1. Die OLS-Regressionsfunktion lautet: ŷ = βˆ 0 + βˆ 1x1 + βˆ 2 x 2 + βˆ 3x1x 2 + βˆ 4 x 3 + + βˆ k-1x k-2 + βˆ k x k-1 Daraus folgt: ŷ = (βˆ 1 +βˆ 3x 2 )x1 bzw. ŷ = βˆ 1 + βˆ 3x 2 x 1 Zur Schätzung des (partiellen) Effektes von x1 auf y werden interessante Werte von x2 untersucht (z.B. arithmetisches Mittel in der Stichprobe). β1 bildet lediglich den geschätzten Effekt von x1 ab, wenn x2 null ist. 44 Qualitative erklärende Variablen: Bisher wurde implizit auf quantitative (d.h. metrisch skalierte) abhängige und erklärende Variablen in linearen Regressionsmodellen fokussiert wie z.B. Löhne, Preise, Ausbildungszeit, Umsätze. In empirischen Untersuchungen spielen aber häufig auch qualitative Faktoren eine wichtige Rolle wie z.B. Geschlecht, Hautfarbe, Besitz eines Produkts, Branchenzugehörigkeit, regionale Effekte usw. Qualitative Variablen: • Qualitative Informationen bei erklärenden Variablen können durch binäre oder Dummy-Variablen eingefangen werden, die entweder den Wert null oder den Wert eins annehmen • Die OLS-Schätzung und das Testen von Hypothesen erfolgt bei der Regressionsanalyse mit qualitativen erklärenden Variablen völlig analog zur ausschließlichen Einbeziehung von quantitativen Variablen Einzelne binäre erklärende Variablen: Einbeziehung von qualitativen Variablen mit zwei Ausprägungen Ausgangspunkt ist zunächst ein multiples lineares Regressionsmodell mit ausschließlich quantitativen Variablen: y = β0 + β1x1 + β 2 x 2 + + βkx k + ε 45 Mit E(ε|x1, x2,…, xk) = 0 gilt: E(y|x1 , x 2 ,…, x k ) = β0 + β1x1 + β 2 x 2 + + βkx k Nun wird zusätzlich eine binäre erklärende Variable x0 einbezogen: y = β0 + δ0 x 0 + β1x1 + β 2 x 2 + + βkx k + ε Daraus folgt: δ0 = E(y|x 0 = 1, x1 , x 2 , , x k ) - E(y|x 0 = 0, x1 , x 2 , , xk ) δ0 ist also die Differenz im Erwartungswert von y zwischen x0 = 1 und x0 = 0, gegeben die gleichen Werte von x1, x2,…, xk und ε. → β0 ist somit die Konstante für x0 = 0. Für x0 = 1 beträgt die Konstante β0 + δ0, so dass δ0 die Differenz der Konstanten für x0 = 1 und x0 = 0 darstellt. Achtung: Es dürfen für einen Faktor (z.B. Geschlecht) niemals zwei Dummy-Variablen (z.B. eine Variable, die den Wert eins annimmt für Frauen und eine weitere Variable, die den Wert eins annimmt für Männer) gleichzeitig in ein lineares Regressionsmodell einbezogen werden, da dadurch eine perfekte Kollinearität vorliegen würde (einfache Form der „dummy variable trap“) 46 --------------------------------------------------------------------------------------------------------Beispiel: Erklärung (des Logarithmus) von Löhnen Mit Hilfe eines linearen Regressionsmodells wird für n = 526 Personen der Effekt des Geschlechts (female), der Ausbildungszeit in Jahren (educ), der Berufserfahrung in Jahren (exper), der quadrierten Berufserfahrung in Jahren (expersq), der Betriebszugehörigkeit in Jahren (tenure) und der quadrierten Betriebszugehörigkeit in Jahren (tenuresq) auf den Logarithmus des Stundenlohns (logwage) untersucht. Dabei haben sich mit STATA folgende OLSSchätzergebnisse gezeigt (R2 = 0,441): reg logwage female educ exper expersq tenure tenuresq -----------------------------------------------------------------------------logwage | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------female | -.296511 .0358055 -8.28 0.000 -.3668524 -.2261696 educ | .0801967 .0067573 11.87 0.000 .0669217 .0934716 exper | .0294324 .0049752 5.92 0.000 .0196584 .0392063 expersq | -.0005827 .0001073 -5.43 0.000 -.0007935 -.0003719 tenure | .0317139 .0068452 4.63 0.000 .0182663 .0451616 tenuresq | -.0005852 .0002347 -2.49 0.013 -.0010463 -.0001241 _cons | .4166909 .0989279 4.21 0.000 .2223425 .6110394 ------------------------------------------------------------------------------ Damit ergibt sich, dass der geschätzte Stundenlohn bei Frauen (bei gleicher Ausbildungszeit, gleicher Berufserfahrung und gleicher Betriebszugehörigkeit) im Durchschnitt approximativ 100∙0,297 = 29,7% geringer ist. 47 --------------------------------------------------------------------------------------------------------- Binäre erklärende Variablen für multiple Kategorien: Einbeziehung von qualitativen Variablen mit mehr als zwei Ausprägungen Ausgangspunkt ist zunächst wieder ein multiples lineares Regressionsmodell mit ausschließlich quantitativen Variablen: y = β0 + β1x1 + β 2 x 2 + + βkx k + ε Nun wird zusätzlich eine qualitative (nominale oder ordinale) erklärende Variable (z.B. Branchen- oder regionale Zugehörigkeit, Schulbildung) mit q verschiedenen Ausprägungen betrachtet, wobei im Gegensatz zu vorher q > 2. Für diesen Fall können (maximal) q-1 Dummy-Variablen x01, x02,…, x0,q-1 einbezogen werden: y = β0 + δ1x 01 + δ 2 x 02 + + δq-1x 0,q-1 + β1x1 + β 2 x 2 + + βkx k + ε Die q-te Ausprägung der qualitativen Variablen (d.h. die Dummy-Variable x0q) dient dabei als Basiskategorie. Das heißt, die geschätzten Regressionsparameter δ1, δ2,…, δq-1 zeigen für die jeweilige Gruppe der qualitativen Variablen (d.h. für x01, x02,…, x0,q-1) die geschätzte durchschnittliche Differenz in der abhängigen Variable y im Vergleich zur Basiskategorie, d.h. im Vergleich zu x0q. Achtung: Es dürfen niemals alle q Dummy-Variablen x01, x02,…, x0,q gleichzeitig einbezogen werden, da dadurch eine perfekte Kollinearität vorliegen würde (generelle 48 Form der „dummy variable trap“). Interaktionsterme mit binären erklärenden Variablen: Interaktionsterme müssen sich nicht nur auf zwei quantitative erklärende Variablen beziehen, sondern können auch Dummy-Variablen einbeziehen Einbeziehung von Interaktionstermen für zwei binäre erklärende Variablen x01 und x02 neben k quantitativen erklärenden Variablen: y = β0 + δ1x 01 + δ 2 x 02 + δ3x 01x 02 + β1x1 + β 2 x 2 + + βkx k + ε Interpretation: • Die Einbeziehung von Interaktionstermen für zwei binäre erklärende Variablen (neben der separaten Einbeziehung der Dummy-Variablen) ist eine Alternative zur Einbeziehung von drei binären erklärenden Variablen, wenn vier Kategorien untersucht werden sollen • δ1 (bzw. δ2) zeigen für x02 = 0 (bzw. x01 = 0) die geschätzte durchschnittliche Differenz in der abhängigen Variable y zwischen x01 = 1 und x01 = 0 (bzw. zwischen x02 = 1 und x02 = 0) • Für x01 = 1 und x02 = 0 (bzw. für x01 = 0 und x02 = 1) ergibt sich eine geschätzte Konstante von β0 + δ1 (bzw. β0 + δ2) • Für x01 = 1 und x02 = 1 ergibt sich schließlich eine geschätzte Konstante von β0 + δ1 + δ2 + δ3 49 Einbeziehung von Interaktionstermen für eine binäre erklärende Variable x01 und eine quantitative erklärende Variable x1 neben k separaten quantitativen erklärenden Variablen: y = β0 + δ1x 01 + β1x1 + δ 2 x 01x1 + β 2 x 2 + + βkx k + ε Interpretation: • Hier kann untersucht werden, inwieweit sich der partielle Effekt (bzw. die Elastizität oder Semi-Elastizität) der quantitativen erklärenden Variablen x1 in linearen Regressionsmodellen bei den beiden Ausprägungen der binären erklärenden Variablen x01 unterscheidet. Falls kein Unterschied vorliegt, gilt δ2 = 0. • Falls x01 = 0, gilt für die OLS-Regressionsfunktion: ŷ = βˆ 0 + βˆ 1x1 + βˆ 2 x 2 + + βˆ k x k Die geschätzte Konstante lautet hier also β0 und der geschätzte partielle Effekt von x1 beträgt β1. • Falls x01 = 1, gilt für die OLS-Regressionsfunktion: ŷ = βˆ 0 + δˆ 1 + βˆ 1x1 + δˆ 2 x 01x1 + βˆ 2 x 2 + + βˆ k x k Die geschätzte Konstante lautet hier also β0 + δ1 und der geschätzte partielle Effekt von x1 beträgt β1 + δ2. 50 0.8 Lineare Regressionsanalyse mit Zeitreihendaten Besonderheiten von Zeitreihendaten: • Auch ökonomische Zeitreihendaten können als Zufallsvariablen aufgefasst werden. Deren Sequenzen über die Zeit werden als stochastische Prozesse oder Zeitreihenprozesse aufgefasst. Wenn Zeitreihendaten gesammelt werden, erhält man eine Realisation des stochastischen Prozesses. • Im Gegensatz zur Querschnittsanalyse werden bei der Betrachtung von Zeitreihendaten üblicherweise nicht Indizes i = 1,…, n für die einzelnen Beobachtungen verwendet, sondern t = 1,…, n für den stochastischen Prozess {(xt1, xt2,…, xtk, yt)}, wobei n jetzt die Anzahl der Zeitperioden ist Damit ergibt sich folgende Formulierung eines linearen Regressionsmodells: y t = β0 + β1x t1 + β 2 x t2 + + β k x tk + ε t für t = 1,..., n Dabei stellt {εt: t = 1,…, n} die Sequenz von Störtermen dar und xth den Wert der erklärenden Variablen h = 1,…, k in Zeitperiode t. Im Folgenden beinhalten der k-dimensionale Vektor xt = (xt1,…, xtk) die erklärenden Variablen in t sowie die (n×k)-dimensionale Matrix x sämtliche erklärende Variablen über alle Perioden, wobei xt die t-te Zeile von x darstellt. → Die unbekannten Parameter können grundsätzlich ebenfalls mit der OLSMethode geschätzt werden 51 Annahmen zur Betrachtung des Erwartungswerts von OLS-Schätzern: • Annahme B1: Linearität in den Parametern Der Zeitreihenprozess {(xt1,…, xtk, yt): t = 1,…, n} folgt dem linearen Modell yt = β0 + β1xt1 +…+ βkxtk + εt • Annahme B2: Keine perfekte Kollinearität In der Stichprobe (und daher auch im zugrundeliegenden Zeitreihenprozess) ist keine der erklärenden Variablen konstant und es besteht keine exakte lineare Beziehung zwischen den erklärenden Variablen • Annahme B3: Bedingter Erwartungswert von εt ist null Für jede Zeitperiode t ist der bedingte Erwartungswert von εt, gegeben die erklärenden Variablen für alle Perioden t = 1,…, n, null, d.h. E(ε t |x) = 0 für t = 1,..., n Zu Annahme B3 (strikte Exogenität der erklärenden Variablen): • B3 impliziert, dass der Störterm εt in einer Zeitperiode t mit jeder erklärenden Variablen xth (h = 1,…, k) in jeder Periode t = 1,…, n unkorreliert ist. Falls εt unabhängig von x ist und E(εt) = 0, dann gilt dies automatisch. • Insgesamt ist Annahme B3 in Regressionsanalysen mit Zeitreihendaten sehr häufig unrealistisch und gilt nur in recht wenigen Fällen. Dennoch soll diese Annahme zunächst betrachtet werden. 52 Auch unter den drei Annahmen B1 bis B3 sind alle mit der OLS-Methode geschätzten Parameter sowohl unter der Bedingung von x und auch ohne Bedingung erwartungstreu, d.h.: E(βˆ h ) = β h für h = 0, 1,…, k Zu beachten ist dabei, dass für die Erwartungstreue auf Annahme A2 (Zufallsstichprobe) bei Querschnittsanalysen verzichtet werden kann, wenn B3 gilt. Annahmen zur Betrachtung der Varianz von OLS-Schätzern: • Annahmen B1 bis B3 • Annahme B4: Homoskedastizität Die bedingte Varianz des Fehlerterms εt ist konstant über alle Zeitperioden t = 1,…, n, d.h. es gilt Var(εt|x) = Var(εt) = σ2. Falls dies nicht zutrifft, liegt wie bei Querschnittsanalysen Heteroskedastizität vor. • Annahme B5: Keine Autokorrelation Unter der Bedingung von x sind die Störterme für beliebige Zeitperioden unkorreliert, d.h. es gilt Corr(εt,εs|x) = 0 für alle t ≠ s. Bei dieser Annahme wird zur einfacheren Interpretation oft von der Bedingung von x abstrahiert: Corr(ε t ,ε s ) = 0 für alle t s 53 Damit ergibt sich auch unter den Annahmen B1 bis B5 für die bedingte Varianz der mit OLS geschätzten Steigungsparameter: Var(βˆ h |x) = σ2 n (1-R 2h ) (x th -x h ) 2 σ2 = (1-R 2h )SSTh für h = 1,…, k t=1 Dabei stellt Rh2 das Bestimmtheitsmaß bei einer Regression von xh auf alle anderen erklärenden Variablen (einschließlich einer Konstante) dar. Des Weiteren gilt: • Auch unter den Annahmen B1 bis B5 ergibt sich folgender erwartungstreuer Schätzer für die Varianz σ2 des Fehlerterms εt: 1 n 2 SSR ˆ σ̂ = ε = t n-k-1 n-k-1 t=1 2 • Auch unter den Annahmen B1 bis B5 sind die OLS-Schätzer die besten linearen unverzerrten Schätzer unter der Bedingung von x Somit liegen bei den Annahmen B1 bis B5 in Regressionsanalysen mit Zeitreihendaten dieselben wünschenswerten Eigenschaften bei endlichen Stichproben vor wie bei den Annahmen A1 bis A5 in Querschnittsanalysen. 54 Zusätzliche Annahme B6: Normalverteilung • Die Störterme εt sind unabhängig von x und unabhängig und identisch normalverteilt mit einem Erwartungswert null und einer Varianz σ2, d.h. es gilt: εt ~ N(0; σ2). Dabei impliziert B6 die Annahmen B3 bis B5, jedoch ist diese Annahme aufgrund der Unabhängigkeit und Normalverteilung stärker. Auch unter den klassischen linearen Modellannahmen B1 bis B6 in Zeitreihenanalysen ergibt sich: Die OLS-Schätzer sind unter der Bedingung von x normalverteilt, die konventionelle Konstruktion von Konfidenzintervallen ist gültig und unter den Nullhypothesen folgen die t- und F-Statistiken der t- und F-Verteilung Einbeziehung von Dummy-Variablen in Zeitreihenanalysen: Da eine Beobachtungseinheit eine Zeitperiode ist, repräsentieren Dummy-Variablen, ob sich ein spezifisches Ereignis in einzelnen Perioden ergeben hat Es wird nun eine zusätzliche qualitative erklärende Variablen mit q verschiedenen Ausprägungen betrachtet. Für diesen Fall können (maximal) q-1 DummyVariablen xt01, xt02,…, xt0,q-1 einbezogen werden: yt = β0 + δ1x t01 + δ2x t02 + + δq-1x t0,q-1 + β1x t1 + β2x t2 + + βk x tk + ε t Die q-te Ausprägung der qualitativen Variablen (d.h. die Dummy-Variable xt0q) 55 dient dabei als Basiskategorie. --------------------------------------------------------------------------------------------------------Beispiel: Erklärung von Fertilitätsraten Mit Hilfe eines linearen Regressionsmodells soll für die Jahre von 1913 bis 1984 der Effekt des durchschnittlichen Steuerfreibetrags (pe) sowie der Zeitperioden des Zweiten Weltkrieges von 1941 bis 1945 (ww2) und seit Einführung der Antibabypille ab 1963 (pill) auf die Anzahl der Geburten auf 1000 Frauen im gebärfähigen Alter (gfr) in den USA untersucht werden. Dabei haben sich mit STATA folgende OLS-Schätzergebnisse gezeigt (n = 72, R2 =0,473): reg gfr pe ww2 pill -----------------------------------------------------------------------------gfr | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------pe | .08254 .0296462 2.78 0.007 .0233819 .1416981 ww2 | -24.2384 7.458253 -3.25 0.002 -39.12111 -9.355686 pill | -31.59403 4.081068 -7.74 0.000 -39.73768 -23.45039 _cons | 98.68176 3.208129 30.76 0.000 92.28003 105.0835 ------------------------------------------------------------------------------ Die geschätzten Regressionsparameter implizieren, dass die Anzahl der Geburten auf 1000 Frauen im gebärfähigen Alter (bei gleichem durchschnittlichen Steuerfreibetrag) während des Zweiten Weltkrieges durchschnittlich um mehr als 24 und seit Einführung der Antibabypille um mehr als 31 geringer war als in den anderen Zeitperioden --------------------------------------------------------------------------------------------------------56 Achtung: Es dürfen wiederum niemals alle q Dummy-Variablen xt01, xt02,…, xt0,q gleichzeitig einbezogen werden, da dadurch eine perfekte Kollinearität vorliegen würde (generelle Form der „dummy variable trap“) Zeittrends: Zeitreihendaten und somit auch abhängige und erklärende Variablen in linearen Regressionsmodellen können eine sinkende und vor allem wachsende Tendenz über die Zeit haben (z.B. Arbeitsproduktivität, nominale Importe). Falls dies ignoriert wird, können sich falsche geschätzte kausale Effekte ergeben. Einfachstes Modell für lineare Zeittrends eines stochastischen Prozesses {yt}: y t = α 0 + α1t + e t für t = 1, 2, ... Im einfachsten Fall stellt {et} eine unabhängige identisch verteilte zufällige Sequenz mit E(et) = 0 und Var(et) = σe2 dar. Zudem ergibt sich: E(y t ) = α0 + α1t Bei α1 > 0 liegt im Durchschnitt ein wachsender Trend und bei α1 < 0 ein sinkender Trend vor. Im Gegensatz zum Erwartungswert ist die Varianz von yt konstant über die Zeit. 57 → Falls bei abhängigen und/oder erklärenden Variablen in Regressionsanalysen mit Zeitreihendaten Trends vorliegen, sollten diese einbezogen werden, da ansonsten scheinbare Zusammenhänge („spurious regression“) entstehen. Ohne die Einbeziehung von Trendvariablen könnten sich verzerrte Schätzer der Regressionsparameter ergeben („omitted variable bias“). Einbeziehung eines linearen Zeittrends: y t = β0 + β1x t1 + β 2 x t2 + + β k x tk + δt + ε t für t = 1,..., n Anmerkungen: • Neben linearen Zeittrends können auch quadratische Zeittrends sowie weitere Polynome von t einbezogen werden • Falls der Zeittrend signifikant von null verschieden ist und sich die Schätzergebnisse stark verändern, sollten die geschätzten Regressionsparameter ohne die Einbeziehung der Trendvariablen vorsichtig interpretiert werden • Die Einbeziehung eines Zeittrends als erklärende Variable führt zu einer Trendbereinigung, d.h. die geschätzten Steigungsparameter können als geschätzte Effekte ohne den Zeittrend interpretiert werden • Bestimmtheitsmaße in Regressionsanalysen mit Zeitreihendaten können artifiziell sehr hohe Werte aufweisen, falls die abhängige Variable einen Trend aufweist 58 --------------------------------------------------------------------------------------------------------Beispiel: Erklärung von Fertilitätsraten Wie zuvor soll erneut mit Hilfe eines linearen Regressionsmodells für die Jahre von 1913 bis 1984 der Effekt des durchschnittlichen Steuerfreibetrags (pe) sowie der Zeitperioden des Zweiten Weltkrieges von 1941 bis 1945 (ww2) und seit Einführung der Antibabypille ab 1963 (pill) auf die Fertilitätsrate (gfr) in den USA untersucht werden. Jetzt wird aber durch die Einbeziehung einer linearen Trendvariable eine Trendbereinigung durchgeführt. Dabei haben sich mit STATA folgende OLS-Schätzergebnisse gezeigt (n = 72, R2 = 0,662): reg gfr pe ww2 pill t -----------------------------------------------------------------------------gfr | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------pe | .2788778 .0400199 6.97 0.000 .1989978 .3587578 ww2 | -35.59228 6.297377 -5.65 0.000 -48.1619 -23.02267 pill | .997447 6.26163 0.16 0.874 -11.50082 13.49571 t | -1.149872 .1879038 -6.12 0.000 -1.524929 -.7748145 _cons | 111.7694 3.357765 33.29 0.000 105.0673 118.4716 ------------------------------------------------------------------------------ Der geschätzte sinkende lineare Zeittrend ist hochsignifikant von null verschieden, so dass nun der geschätzte Regressionsparameter für pe mehr als dreimal so groß wie vorher und deutlicher signifikant von null verschieden ist .Vor allem aber hat dadurch nun die Einführung der Antibabypille ab 1963 keinen 59 signifikanten Effekt mehr jenseits des Zeittrends. --------------------------------------------------------------------------------------------------------- Saisonalität: Falls sich Zeitreihendaten auf Monate oder Quartale (bzw. auch Wochen oder Tage) beziehen, kann Saisonalität vorliegen, z.B. Wettereinflüsse bei makroökonomischen Variablen wie Beschäftigungszahlen. Andere Variablen wie z.B. Zins- oder Inflationsraten weisen dagegen selten Saisonalität auf. Daten für einige Variablen mit Saisonalität können bereits im Vorfeld saisonbereinigt sein. Falls Saisonalität bei abhängigen und/oder erklärenden Variablen in Regressionsanalysen mit Zeitreihendaten vorliegt und die Daten noch nicht saisonbereinigt wurden, sollten saisonale Dummy-Variablen einbezogen werden. Bei Monatsdaten und der Einbeziehung von elf Dummy-Variablen für die Monate Februar (feb) bis Dezember (dec) ergibt sich z.B.: y t = β0 + β1x t1 + β 2 x t2 + + β k x tk + δ1feb t + + δ11dec t + ε t für t = 1,..., n Anmerkungen: • Bei Quartalsdaten können Dummy-Variablen für drei Quartale einbezogen werden • Die Einbeziehung von saisonalen Dummy-Variablen führt zu einer Saisonbereinigung, d.h. die geschätzten Steigungsparameter der erklärenden Variablen können als geschätzte Effekte ohne Saisonalität interpretiert werden • Saisonale Dummy-Variablen können neben Trendvariablen einbezogen werden, so dass eine Saison- und Trendbereinigung durchgeführt wird 60 0.9 Asymptotische Eigenschaften in Zeitreihenanalysen Die zuvor betrachteten Eigenschaften von OLS-Schätzern bei endlichen Stichprobenumfängen basieren auf Annahmen, die bei Regressionsanalysen mit Zeitreihendaten sehr restriktiv sein können. Deshalb sind asymptotische Eigenschaften unter weniger restriktiven Annahmen bei Zeitreihenanalysen noch wichtiger als bei Querschnittsanalysen. Hierbei spielen die Stationarität und eine geringe serielle Abhängigkeit der Zeitreihe bei schwacher Abhängigkeit von Zeitreihenprozessen eine wesentliche Rolle. Stationärer stochastischer Prozess: Ein solcher Zeitreihenprozess ist dadurch gekennzeichnet, dass seine Wahrscheinlichkeitsverteilungen zeitinvariant sind, d.h. die gemeinsamen Verteilungen einer spezifischen Sequenz von Zeitreihendaten und einer um beliebige g Zeitperioden nach vorne verschobenen Sequenz sind identisch Formale Definition eines (strikt) stationären stochastischen Prozesses: Ein stochastischer Prozess {yt: t = 1,…, n} ist stationär, falls für alle Zeitindizes 1 ≤ t1 < t2 < … < tm und für alle ganze Zahlen g ≥ 1 die gemeinsame Wahrscheinlichkeitsverteilung von (yt1, yt2,…, ytm) identisch mit der gemeinsamen Verteilung von (yt1+g, yt2+g,…, ytm+g) ist. 61 Schwach stationärer (kovarianz-stationärer) stochastischer Prozess: Ein stochastischer Prozess {yt: t = 1,…, n} mit einem endlichen E(yt2) < ∞ ist schwach stationär, falls (i) E(yt) konstant ist, (ii) Var(yt) konstant ist und (iii) für alle t, g ≥ 1 gilt, dass Cov(yt, yt+g) nur von g, nicht aber von t abhängt Schwach abhängige Zeitreihenprozesse: • Eine schwache Abhängigkeit zwischen zwei Werten yt und yt+g bezieht sich auf Restriktionen für die Stärke ihres Zusammenhangs, wenn der zeitliche Abstand g wächst • Ein stationärer Zeitreihenprozess {yt: t = 1,…, n} ist schwach abhängig, falls yt und yt+g „fast unabhängig“ sind, wenn g über alle Grenzen wächst • Ein schwach stationärer Zeitreihenprozess ist schwach abhängig, falls die Korrelation von yt und yt+g „hinreichend schnell“ gegen null konvergiert, wenn g über alle Grenzen wächst. Wenn also die Zufallsvariablen über die Zeit weiter auseinander driften, wird ihre Korrelation immer kleiner, d.h. mit g → ∞ ergibt sich Corr(yt, yt+g) → 0. Der Zeitreihenprozess wird dann als asymptotisch unkorreliert bezeichnet. → Ein unabhängig identisch verteilter (i.i.d.) Zeitreihenprozess ist das triviale Beispiel eines schwach abhängigen Prozesses, da er ja unabhängig ist → Zeitreihenprozesse mit Trends können nicht-stationär, aber schwach abhängig sein (bei Stationarität über den Zeittrend liegt Trendstationarität vor)62 Annahmen zur Betrachtung der Konsistenz von OLS-Schätzern: • Annahme B1‘: Linearität und schwache Abhängigkeit Es gilt Annahme B1, d.h. der Zeitreihenprozess {(xt, yt): t = 1,…, n} folgt dem linearen Modell yt = β0 + β1xt1 +…+ βkxtk + εt. Zusätzlich ist der Zeitreihenprozess aber stationär und schwach abhängig. Das lineare Regressionsmodell kann nun (wegen B3‘) auch zeitlich verzögerte abhängige Variablen als erklärende Variablen beinhalten. Die gegenüber B1 wesentliche zusätzliche Annahme ist weniger die Stationarität, sondern vielmehr die schwache Abhängigkeit, die in vielen Zeitreihenprozessen nicht vorliegt. • Annahme B2‘: Keine perfekte Kollinearität Es gilt also Annahme B2 • Annahme B3‘: Bedingter Erwartungswert von εt ist null Im Gegensatz zu Annahme B3 wird jetzt nicht mehr die strikte Exogenität der erklärenden Variablen, sondern lediglich die kontemporäre Exogenität betrachtet, d.h. E(εt|xt) = 0. Häufig wird für die Konsistenzeigenschaft auch lediglich folgendes vorausgesetzt: E(ε t ) = 0, Cov(x th , ε t ) = 0 für h = 1,..., k Unter diesen drei Annahmen sind die OLS-Schätzer βh konsistent (wenngleich nicht unbedingt erwartungstreu), d.h. es gilt plim(βh) = βh für h = 0,1,…, k 63 Die Annahmen zur Ableitung der asymptotischen Normalverteilung von Funktionen von OLS-Schätzern in Zeitreihenanalysen und damit zur Durchführung von Testverfahren sind etwas weniger restriktiv als die klassischen linearen Modellannahmen B1 bis B6: • Annahmen B1‘ bis B3‘ (die bei der Betrachtung der Konsistenz von OLSSchätzern getroffen werden) • Annahme B4‘: Kontemporäre Homoskedastizität der Fehlerterme Die bedingte Varianz des Fehlerterms εt ist konstant und bezieht sich nicht mehr auf die erklärenden Variablen in allen Zeitperioden t = 1,…, n, sondern nur noch in Zeitperiode t: Var(εt|xt) = Var(εt) = σ2. • Annahme B5‘: Keine Autokorrelation der Fehlerterme Für alle t ≠ s gilt E(εtεs|xt, xs) = 0, d.h. es wird nur noch auf die erklärenden Variablen in den Zeitperioden von εt und εs bedingt. Auch bei dieser Annahme wird zur einfacheren Interpretation oft von der Bedingung abstrahiert und lediglich die Unkorreliertheit von εt und εs betrachtet. Unter den Annahmen B1‘ bis B5‘ ergibt sich, dass die OLS-Schätzer asymptotisch effizient sind und für die zuvor betrachtete Funktion der OLS-Schätzer eine asymptotische Normalverteilung vorliegt. Zudem sind die t- und F-Statistiken in diesem Fall asymptotisch t- und F-verteilt. Dadurch können dann die konventionellen t- und F-Tests durchgeführt und Konfidenzintervalle konstruiert werden. 64 0.10 Autokorrelierte Fehlerterme Eigenschaften von OLS-Schätzern bei autokorrelierten Fehlertermen: • Unter den Annahmen B1 bis B3 (insbesondere bei strikter Exogenität der erklärenden Variablen) sind die OLS-Schätzer βh unabhängig von der Stärke der Autokorrelation der Störterme erwartungstreu • Unter den Annahmen B1‘ bis B3‘ (und damit insbesondere bei schwacher Abhängigkeit des Zeitreihenprozesses) sind die OLS-Schätzer βh unabhängig von der Stärke der Autokorrelation der Störterme konsistent • Allerdings werden bei autokorrelierten Fehlertermen nicht mehr die GaussMarkov-Annahmen erfüllt, so dass die OLS-Schätzer in diesem Fall nicht mehr die BLUE-Eigenschaft (bzw. Effizienz) aufweisen • Vor allem aber sind bei autokorrelierten Fehlertermen die konventionellen Schätzer der Varianzen der mit OLS geschätzten Steigungsparameter verzerrt und somit auch die t- und F-Statistiken nicht einmal mehr asymptotisch t- und F-verteilt • Die wichtigste Form autokorrelierter Fehlerterme ergibt sich durch einen AR(1) Prozess, also durch folgende AR(1) Autokorrelation: ε t = ρε t-1 + e t für t = 1, 2,..., n Dabei gilt die Stabilitätsbedingung |ρ| < 1 und die et sind unkorreliert mit Er65 wartungswert null und Varianz σe2. Allgemeiner t-Test auf AR(1) Autokorrelation der Fehlerterme: • Überprüft wird folgende AR(1) Autokorrelation der Fehlerterme: ε t = ρε t-1 + e t für t = 2, 3,..., n Angenommen wird dabei, dass {et} ein i.i.d. Zeitreihenprozess ist, so dass dabei auch Homoskedastizität vorliegt: E(e t |ε t-1 , ε t-2 ,...) = 0 Var(e t |ε t-1 ) = Var(e t ) = σ e2 • Die Nullhypothese lautet: H 0: ρ = 0 • Die Nullhypothese könnte dadurch überprüft werden, dass ein gewöhnlicher t-Test für ρ bei der Regression von εt auf εt-1 sowie allen erklärenden Variablen (die verzögerte abhängige Variablen sein können) und einer Konstante angewendet wird • Allerdings sind die εt unbekannt und werden deshalb durch die OLSResiduen εt ersetzt • Durch die Einbeziehung der erklärenden Variablen ergibt sich die approximative t-Verteilung der Prüfgröße, selbst wenn die erklärenden Variablen nicht strikt exogen sind (bei strikter Exogenität der erklärenden Variablen genügt eine Regression von εt auf εt-1) 66 • Somit ergibt sich folgendes Vorgehen bei diesem allgemeinen t-Test: (1) Mit Hilfe der OLS-Regressionswerte bei der Regression von yt auf die erklärenden Variablen xt1,…, xtk werden zunächst die Residuen εt für alle t = 1,2,…, n ermittelt (2) Danach werden die εt auf die εt-1 sowie alle erklärenden Variablen einschließlich einer Konstante für alle t = 2,…, n regressiert, der OLSSchätzer ρ für εt-1 abgeleitet und die t-Statistik tρ ermittelt (3) Die Teststatistik tρ wird schließlich zur Überprüfung der Nullhypothese H0: ρ = 0 verwendet • Obwohl dieser Test zur Überprüfung von AR(1) Autokorrelationen in den Fehlertermen entwickelt wurde, können damit auch andere Formen von (angrenzenden) Autokorrelationen aufgedeckt werden • Falls keine Homoskedastizität bei {et} vorliegt, können heteroskedastizitätsrobuste t-Statistiken angewendet werden • Ein alternatives in der Vergangenheit populäres Verfahren ist der DurbinWatson-Test auf AR(1) Autokorrelation der Störterme, der allerdings zwingend die strikte Exogenität der erklärenden Variablen voraussetzt (damit kann dieser Test z.B. nicht bei linearen Regressionsmodellen mit verzögerten abhängigen Variablen angewendet werden) 67 Mögliche Ansätze bei autokorrelierten Fehlertermen: • Ein Ansatz ist die Transformation der Variablen durch die Einbeziehung von (z.B. ersten) Differenzen der abhängigen und erklärenden Variablen. Durch diese Transformation können häufig nicht nur die starke Abhängigkeit der Zeitreihenprozesse, sondern oft auch eine Autokorrelation der Störterme ganz vermieden werden. • Ein alternativer Ansatz ist die Anwendung einer zu OLS alternativen Schätzmethode. Beispiele hierfür sind verschiedene verallgemeinerte Methoden der kleinsten Quadrate (GLS) wie z.B. die Cochrane-Orcutt- oder die PraisWinston-Methode. Damit können einzelne Formen autokorrelierter Störterme bei der Parameterschätzung berücksichtigt werden. → Allerdings hat die Anwendung von GLS-Methoden eine Reihe von strengen Anforderungen. So müssen z.B. die erklärenden Variablen strikt exogen sein, da GLS-Schätzer ansonsten nicht einmal konsistent sind. Zudem wird häufig die spezifische AR(1) Autokorrelation der Fehlerterme angenommen. → Aus diesem Grund werden in den letzten Jahren viel häufiger die Regressionsparameter (ineffizient) mit OLS geschätzt, die Schätzer der Varianzen der geschätzten Regressionsparameter aber korrigiert. Damit können in Analogie zur Betrachtung von heteroskedastizitäts-robusten t-Statistiken autokorrelations-robuste Konfidenzintervalle und vor allem t-Statistiken abgeleitet werden. 68 Ausgangspunkt eines Ansatzes zur Ableitung von autokorrelations-robusten Schätzungen der Varianz der geschätzten Regressionsparameter ist das folgende lineare Regressionsmodell: y t = β0 + β1x t1 + + β k x tk + ε t für t = 1,..., n Dabei soll zunächst eine autokorrelations-robuste Schätzung der Standardabweichung des OLS-Schätzers β1 abgeleitet werden. Hierzu wird folgendes Hilfsregressionsmodell betrachtet, das die erste erklärende Variable xt1 als abhängige Variable und alle anderen erklärenden Variablen als erklärende Variablen beinhaltet: x t1 = δ0 + δ1x t2 + + δ k-1x tk + rt1 für t = 1,..., n Dabei hat der Störterm rt1 einen Erwartungswert von null und ist unkorreliert mit den erklärenden Variablen xt2,…, xtk. Für den Schätzer der Standardabweichung des OLS-Schätzers β1 wird im Folgenden weiterhin der Schätzer σ der Standardabweichung σ des Fehlerterms εt betrachtet. Mit rt1 als Residuum der obigen OLS-Schätzung in Zeitperiode t kann mit g > 0 (wobei g kontrolliert, welches Ausmaß an Autokorrelation in die Betrachtung einbezogen wird) folgender Ansatz abgeleitet werden: h n ˆ ˆ ˆ ˆ v̂ = rˆ εˆ + 2 1r ε r ε t1 t t-h,1 t-h g+1 t=1 h=1 t=h+1 g n 2 2 t1 t 69 Je größer g ist, desto mehr Terme werden zur Korrektur der Autokorrelation einbezogen. Im einfachsten Fall mit g = 1 ergibt sich: n v̂ = rˆ εˆ 2 2 t1 t t=1 n + rˆ εˆ rˆ εˆ t1 t t-1,1 t-1 t=2 Damit ergibt sich nun folgender autokorrelations-robuster Schätzer der Standardabweichung von β1: (1-R 2 )SST 1 1 ˆ ˆ1 ) = Var(β σ̂ σ̂ 2 vˆ = vˆ vˆ = (1-R12 )SST1 SSR1 Diese Schätzung kann analog auf beliebige OLS-Schätzer βh angewendet werden (mit Störterm rth). Dabei sind die Schätzungen nicht nur autokorrelationsrobust, sondern auch robust für beliebige Formen der Heteroskedastizität, so dass sie auch als heteroskedastizitäts- und autokorrelations-konsistente (HAC) Schätzungen der Standardabweichung der geschätzten Steigungsparameter bezeichnet werden. Diese Robustheit für Heteroskedastizität zeigt sich, wenn für βh nur der erste Term von v einbezogen wird: 70 n ˆ ˆh) = Var(β rˆ εˆ n 2 2 th t t=1 2 h (1-R )SSTh = 2 2 ˆ r thεˆ t t=1 SSR h Damit ergibt sich die Analogie zur heteroskedastizitäts-robusten Schätzung der Standardabweichung von mit OLS geschätzten Steigungsparametern. Anmerkungen: • Die Einbeziehung der HAC-Schätzung der Standardabweichung der geschätzten Steigungsparameter in t-Statistiken führt zu heteroskedastizitätsund autokorrelations-robusten t-Statistiken • Mit wachsendem n sollte auch die Zahl g wachsen, da bei einer großen Anzahl an Zeitperioden auch das Ausmaß der Autokorrelation der Fehlerterme steigen kann. Faustregeln sind g = 4(n/100)2/9 (nach Newey und West, 1987) oder aber g = n1/4. • Aufgrund von häufig positiver Autokorrelation der Störterme weisen die HAC-Schätzer der Standardabweichung der geschätzten Steigungsparameter oft höhere Werte auf als die konventionellen Schätzer, so dass die HAC t-Statistiken meist kleiner sind • Probleme der HAC-Schätzungen sind, dass sie bei sehr hoher Autokorrelation der Störterme und kleinem n sehr invalide und dass die zugrunde lie- 71 genden OLS-Schätzer sehr ineffizient sein können --------------------------------------------------------------------------------------------------------Beispiel: Erklärung von Beschäftigungsraten (I) Mit Hilfe eines linearen Regressionsmodells soll für die Jahre von 1950 bis 1987 der Effekt des Logarithmus der Bedeutung des U.S. Mindestlohnes (logmincov), des Logarithmus des U.S. Bruttosozialprodukts (logusgnp) und des Logarithmus des Bruttosozialprodukts in Puerto Rico (logprgnp) unter Einbeziehung einer linearen Trendvariable auf den Logarithmus der Beschäftigungsrate in Puerto Rico (logprepop) untersucht werden. Bei einem Test auf AR(1) Autokorrelation der Fehlerterme hat sich ein klarer Hinweis auf AR(1) Autokorrelation ergeben, so dass autokorrelations-robuste t-Statistiken betrachtet werden. Ergebnisse: • Der OLS-Schätzer der Elastizität der Beschäftigungsrate in Bezug auf den Mindestlohn beträgt -0,2123 und der übliche Schätzwert der Standardabweichung des geschätzten Steigungsparameters beträgt 0,0402 • Mit g = 2 ergibt sich ein heteroskedastizitäts- und autokorrelationsrobuster Schätzer der Standardabweichung des Steigungsparameters von 0,0457 und ist damit nur geringfügig höher • Die robuste t-Statistik beträgt -4,64, so dass die geschätzte Elastizität weiterhin hoch signifikant von null verschieden ist 72 --------------------------------------------------------------------------------------------------------- --------------------------------------------------------------------------------------------------------Beispiel: Erklärung von Beschäftigungsraten (II) (STATA-Output) reg logprepop logmincov logusgnp logprgnp t Source | SS df MS -------------+-----------------------------Model | .284429837 4 .071107459 Residual | .03542846 33 .00107359 -------------+-----------------------------Total | .319858296 37 .008644819 Number of obs F( 4, 33) Prob > F R-squared Adj R-squared Root MSE = = = = = = 38 66.23 0.0000 0.8892 0.8758 .03277 -----------------------------------------------------------------------------logprepop | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------logmincov | -.2122612 .0401525 -5.29 0.000 -.2939519 -.1305704 logusgnp | .4860432 .2219834 2.19 0.036 .0344145 .9376719 logprgnp | .2852395 .0804922 3.54 0.001 .1214768 .4490022 t | -.0266633 .0046267 -5.76 0.000 -.0360764 -.0172501 _cons | -6.663416 1.257835 -5.30 0.000 -9.222501 -4.104331 ------------------------------------------------------------------------------ newey logprepop logmincov logusgnp logprgnp t, lag(2) Regression with Newey-West standard errors maximum lag: 2 Number of obs F( 4, 33) Prob > F = = = 38 37.84 0.0000 -----------------------------------------------------------------------------| Newey-West logprepop | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------logmincov | -.2122611 .0457188 -4.64 0.000 -.3052768 -.1192455 logusgnp | .4860416 .2791144 1.74 0.091 -.081821 1.053904 logprgnp | .2852399 .0996364 2.86 0.007 .082528 .4879518 t | -.0266632 .0057559 -4.63 0.000 -.0383736 -.0149528 _cons | -6.663407 1.536445 -4.34 0.000 -9.789328 -3.537485 ------------------------------------------------------------------------------ 73 ---------------------------------------------------------------------------------------------------------