Multiple Regression

Werbung
Analyse von
Querschnittsdaten
Multiple Regression
Warum geht es in den folgenden
Sitzungen?
Kontinuierliche Variablen
Deskriptive Modelle
kategoriale Variablen
Datum
Vorlesung
13.10.2004
Einführung
20.10.2004
Beispiele
27.10.2004
Daten
03.11.2004
Variablen
10.11.2004
Bivariate Regression
17.11.2004
Kontrolle von Drittvariablen
24.11.2004
Multiple Regression
01.12.2004
Statistische Inferenz
08.12.2004
Signifikanztests I
15.12.2004
Signifikanztests II
22.12.2004
Spezifikation der unabhängigen Variablen
12.01.2005
Spezifikation der Regressionsfunktion
19.01.2005
Heteroskedastizität
26.01.2005
Regression mit Dummy-Variablen
02.02.2005
Logistische Regression
Gliederung
1. Multiple Regression
2. Vergleich des Einflusses verschiedener
Variablen
3. Vergleiche zwischen verschiedenen
Regressionsmodellen
4. Ergebnispräsentation
Gliederung
1. Multiple Regression
2. Vergleich des Einflusses verschiedener
Variablen
3. Vergleiche zwischen verschiedenen
Regressionsmodellen
4. Ergebnispräsentation
Multiple Regression
yi = β 0 + β1 xi1 + β 2 xi 2 + K + β k xik + r
eine abhängige Variable yi
k unabhängige Variablen xi1 , xi 2 , K , xik
k + 1 Regressionskoeffizienten β 0 , β1 , β 2 , K , β k
Analyseziel
1. Hypothesentest
Bestimme den Einfluss jeder unabhängigen
Variablen xj (j=1, ...k) unter Kontrolle
(Konstanthaltung) aller anderen unabhängigen
Variablen.
2. Modellfit
Bestimme den Anteil erklärter Varianz der
abhängigen Variablen y.
Kleinste-Quadrate Methode
n
Allgemein : minimiere SSR = ∑ ( yi − yˆ i ) 2
i =1
n
Setze ein : SSR = ∑ ( yi − βˆ0 ⋅1 − βˆ1 xi1 − K − βˆk xik ) 2
i =1
Bilde partielle Ableitungen :
n
∑
1⋅ ( yi − βˆ0 ⋅1 − βˆ1 xi1 − L − βˆk xik ) = 0
i =1
n
∑x
i1
i =1
M
n
∑x
i =1
⋅ ( yi − βˆ0 ⋅1 − βˆ1 xi1 − L − βˆk xik ) = 0
ik
=0
⋅ ( yi − βˆ0 ⋅1 − βˆ1 xi1 − L − βˆk xik ) = 0
Die sogenannten
Normalgleichungen bilden
ein Gleichungssystem mit
(k+1) Unbekannten:
βˆ0 , βˆ1 , K , βˆk
Analytische Lösung ...
kann man sehr einfach mit Matrizen hinschreiben
Normalgleichungen: X′y − ( X′X)βˆ = 0
Lösung:
⎡ βˆ0 ⎤
⎢ˆ ⎥
ˆβ = ⎢ β1 ⎥
⎢M ⎥
⎢ ⎥
⎢⎣ βˆk ⎥⎦
⎡1
⎢1
X=⎢
⎢M
⎢
⎣1
βˆ = ( X′X) -1 X′y
x11
x21
M
xn1
L
L
L
L
x1k ⎤
x2 k ⎥⎥
M ⎥
⎥
xnk ⎦
⎡ y1 ⎤
⎢y ⎥
y = ⎢ 2⎥
⎢M⎥
⎢ ⎥
⎣ yn ⎦
Adjustiertes R-Quadrat
SSR
R = 1−
SST
2
SSR
2
R = 1 − n − k −1
SST
n −1
• Mit jeder zusätzlichen unabhängigen Variablen
steigt R-Quadrat, die Komplexität des Modells
wird nicht berücksichtigt.
• Das adjustierte R-Quadrat berücksichtigt
dagegen, durch wie viele unabhängige
Variablen der erklärte Varianzanteil bei
gegebenem Stichprobenumfang „erkauft“ wurde.
Beispiel 1: Erwerbseinkommen
• Hypothesen
– Unabhängig von ihrer Berufserfahrung erzielen
Arbeitnehmer mit höherer Ausbildung höhere
Erwerbseinkommen: βeduc>0.
– Unabhängig von ihrer Ausbildung erzielen
Arbeitnehmer mit längerer Berufserfahrung höhere
Erwerbseinkommen.
• Berufserfahrung wird gemessen über die Dauer der
Erwerbstätigkeit insgesamt (βexper>0) und die Dauer der
Beschäftigung beim jetzigen Arbeitgeber (βtenure>0).
• Begründung: Humankapitaltheorie
Beispiel 1: Ergebnispräsentation
waˆge = −2,87 + 0,60 ⋅ educ + 0,02 ⋅ exper + 0,17 ⋅ tenure
R 2 = 0,306, n = 526 (wage1.dta)
• Es wurden die Stundenlöhne von 526 USamerikanischen Arbeitnehmern aus dem Jahr 1976
untersucht (Quelle: Current Population Survey).
• Alle drei Hypothesen konnten bestätigt werden.
• Insgesamt erklären die drei Variablen Ausbildungsdauer,
Berufserfahrung und Dauer der Betriebszugehörigkeit
30,6% der Varianz der Stundenlöhne.
• Im Einzelnen zeigte sich: Mit jedem zusätzlichen
Ausbildungsjahr steigt der Stundenlohn (ceteris paribus)
um 0,60 Dollar, mit jedem Berufsjahr um 0,02 Dollar und
mit jedem Jahr der Betriebszugehörigkeit um 0,17 Dollar.
Beispiel 1: offene Fragen
• Welche der drei untersuchten Variablen
hat den größten Einfluss?
Örelative Größenordnung der Effekte
• Variieren die Löhne nicht auch nach
Branchen und Regionen?
ÖVergleich verschiedener Regressionsmodelle
Gliederung
1. Multiple Regression
2. Vergleich des Einflusses verschiedener
Variablen
a.
b.
c.
d.
Was ist das Problem?
Standardisierte Regressionskoeffizienten
Rückblick: Regression und Korrelation
Konditionale Effekt-Plots
3. Vergleiche zwischen verschiedenen
Regressionsmodellen
4. Ergebnispräsentation
Regressionskoeffizienten sind
abhängig von den Maßeinheiten
Stundenlöhne in Dollar, Ausbildung usw. in Jahren
waˆge = −2,87 + 0,60 ⋅ educ + 0,02 ⋅ exper + 0,17 ⋅ tenure
R 2 = 0,306, n = 526 (wage1.dta)
Stundenlöhne in Cent, Ausbildung usw. in Jahren
cwaˆge = −287,27 + 59,90 ⋅ educ + 2,23 ⋅ exper + 16,93 ⋅ tenure
R 2 = 0,306, n = 526 (wage1.dta)
Stundenlöhne in Dollar, Ausbildung usw. in Monaten
waˆge = −2,87 + 0,05 ⋅ meduc + 0,002 ⋅ mexper + 0,01 ⋅ mtenure
R 2 = 0,306, n = 526 (wage1.dta)
Determinationskoeffizient bleibt jedoch gleich!
Unabhängige Variablen mit
unterschiedlichen Maßeinheiten
waˆge = −2,87 + 0,60 ⋅ educ + 0,02 ⋅ exper + 0,17 ⋅ tenure
R 2 = 0,306, n = 526 (wage1.dta)
Die Effekte von educ, exper und tenure sind im Prinzip
vergleichbar, weil eine Veränderung von xj um 1 Einheit
hier immer das Gleiche bedeutet (1 Jahr).
priˆce = 19315 + 128,43 ⋅ sqrft + 15198,19 ⋅ bdrms
R 2 = 0,632, n = 88 (hprice1.dta)
Wie sollen die Effekte verglichen werden, wenn eine
Veränderung um 1 Einheit im einen Fall (sqrft) ein
Quadratmeter und im anderen Fall (bdrms) ein Raum
bedeutet?
Gliederung
1. Multiple Regression
2. Vergleich des Einflusses verschiedener
Variablen
a.
b.
c.
d.
Was ist das Problem?
Standardisierte Regressionskoeffizienten
Rückblick: Regression und Korrelation
Konditionale Effekt-Plots
3. Vergleiche zwischen verschiedenen
Regressionsmodellen
4. Ergebnispräsentation
Exkurs: z-Transformation
Durch Standardisierung ergibt
sich eine neue Variable mit
arithmetischen Mittel 0 und
Standardabweichung 1.
x−x
zx =
sx
. sum price
Variable |
Obs
Mean
Std. Dev.
Min
Max
-------------+-------------------------------------------------------price |
88
293.546
102.7134
111
725
. generate zprice=(price-293.546) / 102.7134
. sum zprice
Variable |
Obs
Mean
Std. Dev.
Min
Max
-------------+-------------------------------------------------------zprice |
88
3.34e-07
1 -1.777236
4.200562
Vergleichbarkeit durch
Standardisierung aller Variablen
Unstandardisierte Regressionskoeffizienten
priˆce = 19315 + 128,43 ⋅ sqrft + 15198,19 ⋅ bdrms
R 2 = 0,632, n = 88 (hprice1.dta)
Standardisierte Regressionskoeffizienten (Beta - Koeffzienten)
zpriˆce = 0 + 0,7217 ⋅ zsqrft + 0,1245 ⋅ zbdrms
R 2 = 0,632, n = 88 (hprice1.dta)
Wenn man die Wohnfläche (gemessen in Quadratmetern) um eine
Standardabweichung erhöht, erhöht sich der Preis des Hauses
(gemessen in Dollar) um 0,7217 Standardabweichungen.
Da 0,7217 größer ist als 0,1245, geht man davon aus, dass der Preis
mehr mit der Wohnfläche als mit der Anzahl der Schlafräume variiert.
z-Transformation notwendig?
Nein, standardisierte sind
direkt aus unstandardisierten
Koeffizienten berechenbar!
bˆ j = βˆ j
sx j
sy
0,7217 ≈ 0.1284 ⋅
577,19
102,71
. reg price sqrft bdrms, beta
Source |
SS
df
MS
-------------+-----------------------------Model | 580009.152
2 290004.576
Residual | 337845.354
85 3974.65122
-------------+-----------------------------Total | 917854.506
87 10550.0518
Number of obs
F( 2,
85)
Prob > F
R-squared
Adj R-squared
Root MSE
=
=
=
=
=
=
88
72.96
0.0000
0.6319
0.6233
63.045
-----------------------------------------------------------------------------price |
Coef.
Std. Err.
t
P>|t|
Beta
-------------+---------------------------------------------------------------sqrft |
.1284362
.0138245
9.29
0.000
.721739
bdrms |
15.19819
9.483517
1.60
0.113
.1244983
_cons |
-19.315
31.04662
-0.62
0.536
.
------------------------------------------------------------------------------
Gliederung
1. Multiple Regression
2. Vergleich des Einflusses verschiedener
Variablen
a.
b.
c.
d.
Was ist das Problem?
Standardisierte Regressionskoeffizienten
Rückblick: Regression und Korrelation
Konditionale Effekt-Plots
3. Vergleiche zwischen verschiedenen
Regressionsmodellen
4. Ergebnispräsentation
Rückblick I: Korrelation und Regression
trivariat
R y2. x1x2 =
R
2
y . x1 x2
zum Vergleich : bivariat
ryx2 1 + ryx2 2 − 2ryx1 ryx2 rx1x2
1 − rx21x2
⎛
⎛
s x1 ⎞
s x2
ˆ
ˆ
= ryx1 ⎜ β1 ⋅ ⎟ + ryx2 ⎜ β 2 ⋅
⎜
⎟
⎜
s
sy
y
⎝
⎠
⎝
R y2. x1 = ryx2 1
⎞
⎟
⎟
⎠
R
2
y . x1
⎛ ~ s x1 ⎞
= ryx1 ⎜ β1 ⋅ ⎟
⎜
⎟
s
y
⎝
⎠
Standardisierter Regressionskoeffizient
Der Determinationskoeffizient des trivariaten (allgemein: des
multiplen) Regressionsmodells ist eine gewichtete Summe
der Korrelationen, die jeweils mit den standardisierten
Regressionskoeffizienten gewichtet werden.
Rückblick II: Korrelation und Regression
trivariat
R y2. x1x2 =
R
2
y . x1 x2
zum Vergleich : bivariat
ryx2 1 + ryx2 2 − 2ryx1 ryx2 rx1x2
1 − rx21x2
⎛
⎛
s x1 ⎞
s x2
ˆ
ˆ
= ryx1 ⎜ β1 ⋅ ⎟ + ryx2 ⎜ β 2 ⋅
⎜
⎟
⎜
s
sy
y
⎝
⎠
⎝
R y2. x1 = ryx1 ⋅ ryx1
⎞
⎟
⎟
⎠
R
2
y . x1
⎛ ~ s x1 ⎞
= ryx1 ⎜ β1 ⋅ ⎟
⎜
⎟
s
y
⎝
⎠
Standardisierter Regressionskoeffizient
Im bivariaten Regressionsmodell ist der standardisierte
Regressionskoeffizient gleich dem Korrelationskoeffizienten.
Gliederung
1. Multiple Regression
2. Vergleich des Einflusses verschiedener
Variablen
a.
b.
c.
d.
Was ist das Problem?
Standardisierte Regressionskoeffizienten
Rückblick: Regression und Korrelation
Konditionale Effekt-Plots
3. Vergleiche zwischen verschiedenen
Regressionsmodellen
4. Ergebnispräsentation
Beispiel 2: Lebenszufriedenheit
• General Social Survey 1978: Zufallsstichprobe der USBevölkerung über 18 Jahre
• Lebenszufriedenheit (Index 1-20)
• Determinanten: Haushaltseinkommen, Berufsprestige,
Ausbildungsdauer, Kirchgangshäufigkeit, Ortsgröße
• n=665 analysierbare Fälle
• Regressionsgleichung (standardisierte Koeffizienten in
Klammern):
yˆ = 10,51 + 0,065 x1 + 0,011x2 + 0,116 x3 + 0,265 x4 − 0,056 x5
(0,107) (0,018) (0,190) (0,435) (−0,092)
Konditionaler Effekt-Plot
10.7
• gen b_prognose=_b[_cons] +
_b[income]*income + _b[prestige]*0 +
_b[educ]*0 + _b[attend]*0 + _b[size]*0
• graph twoway line b_prognose income
b _prognose
10.5
10.6
Bedingte Prognose der
Zufriedenheit in Abhängigkeit
vom Einkommen
Bedingung: prestige=0, educ=0,
attend=0, size=0
10.3
10.4
Jeder andere Wert möglich.
Man verwendet häufig die
arithmetischen Mittel.
-4
-2
0
income
2
4
Vergleich relativer Einflußstärken
10.6
b2_prognose
10.5
10.4
Je nach Einkommen
schwanken die prognostizierten
Zufriedenheiten zwischen 10,3
und 10,7 Skalenpunkten, je
nach Berufsprestige dagegen
nur zwischen 10,47 und 10,55
Skalenpunkten.
10.3
10.6
10.6
b _prognose
b_prognose
10.5
10.5
10.4
10.4
10.7
10.7
10.7
… bedingter Effekt-Plot für Einkommenseffekt
graph copy income
… bedingter Effekt-Plot für Prestigeeffekt
graph copy prestige
graph combine income prestige, ycommon cols(2) scale(1.25)
10.3
10.3
•
•
•
•
•
-4
-4
-2
0
-2
income
2
4
0
income
-4
-2
0
2
prestig
e
2
4
4
Der Einfluss des Einkommens
ist also größer als der des
Berufsprestiges.
Gliederung
1. Multiple Regression
2. Vergleich des Einflusses verschiedener
Variablen
3. Vergleiche zwischen verschiedenen
Regressionsmodellen
a. eine Stichprobe
b. mehrere Stichproben
4. Ergebnispräsentation
Beispiel 1 erweitert
Variable
Osten
Nord
Süden
Westen
Schwerindustrie
Bauindustrie
Leichtindustrie
Verkehr & Kommunikation
Handel
Dienstleistungen
Freie Berufe
Ausbildung
Berufserfahrung
Betriebszugehörigkeit
Konstante
R²
adj. R²
n
Modell 1
Ref.
-0.6810
-0.9359
0.2547
Ref.
-1.1657
-0.3283
-0.3694
-2.3305
-2.8955
-0.7546
7.6193
9.4%
7.8%
526
Modell 2
Ref.
-0.6782
-0.4561
0.4079
Ref.
-0.5180
-1.0687
-1.6599
-2.0695
-2.5395
-1.3694
0.6105
0.0243
0.1501
-1.2677
36.1%
34.7%
526
Modell 3
Ref.
-0.7886
-0.6592
0.2485
Ref.
-0.6201
-0.9292
-1.4622
-2.3866
-2.9910
-1.7172
0.6497
0.0657
-1.3658
30.1%
28.6%
526
Modell 4
Ref.
-0.6332
-0.4039
0.4414
Ref.
-0.6500
-1.0624
-1.7427
-2.1090
-2.4951
-1.3368
0.5773
0.1722
-0.5783
35.6%
34.2%
526
Modell 5
Ref.
-0.5974
-0.7310
0.4270
Ref.
-0.8044
-0.5389
-0.5196
-1.8152
-2.3257
-0.3157
-0.0192
0.1777
6.6113
18.9%
17.2%
526
Exkurs: Hierarchische Modelle
• Zwei Modelle A und a sind hierarchisch (nested),
wenn die Parameter des Modells a eine
Teilmenge der Parameter des Modells A sind.
• Das (restringierte) Modell a ergibt sich aus dem
(nicht restringierten) Modell A, indem man für die
Parameter in A lineare Restriktionen formuliert.
(nicht restringiertes) Modell A : y = β 0 + β1 x1 + β 2 x2 + β 3 x3 + r
β 2 = 0 und β 3 = 0
ergibt (restringiertes) Modell a : y = β 0 + β1 x1 + r
Zwei Restriktionen :
Schrittweise Modellüberprüfung
1. Gruppen von erklärenden Variablen
Häufig unterscheiden sich die erklärenden Variablen in
solche, die „nur“ kontrolliert werden, die von zentraler
Bedeutung sind und die eventuell ergänzend
berücksichtigt werden sollen.
2. Überprüfung der Stabilität der Schätzer
Bleiben die Effekte der zentralen erklärenden
Variablen bei verschiedenen Modellspezifikationen
stabil?
3. Bestimmung der relativen Einflussstärke
Da der Erklärungszuwachs von der Eingabereihenfolge abhängt, fragt man häufig umgekehrt: Wie
verschlechtert sich der Modellfit, wenn man die
interessierende Variable aus dem Endmodell weglässt.
Gliederung
1. Multiple Regression
2. Vergleich des Einflusses verschiedener
Variablen
3. Vergleiche zwischen verschiedenen
Regressionsmodellen
a. eine Stichprobe
b. mehrere Stichproben
4. Ergebnispräsentation
Vergleich identischer Modelle aus
verschiedenen Stichproben
Variable
Ausbildung
Berufserfahrung
Betriebszugehörigkeit
Konstante
R²
adj. R²
n
Datensatz
-
1980
1976
Regressionskoeffizienten Regressionskoeffizienten
unstand.
stand.
unstand.
stand.
1.5397
0.3424
0.5990
0.4491
0.3306
0.1464
0.0223
0.0821
0.2182
0.1121
0.1693
0.3311
-3.8180
0.0000
-2.8727
0.0000
11.1%
30.6%
10.8%
30.2%
935
526
wage2.dta
wage1.dta
1980: 935 männliche Beschäftigte aus den USA.
1976: 526 männliche und weibliche Beschäftigte aus den USA.
Vergleich des Einflusses einer
Variablen zwischen den Stichproben
Variable
Ausbildung
Berufserfahrung
Betriebszugehörigkeit
Konstante
R²
adj. R²
n
Datensatz
•
•
•
1980
1976
Regressionskoeffizienten Regressionskoeffizienten
unstand.
stand.
unstand.
stand.
1.5397
0.3424
0.5990
0.4491
0.3306
0.1464
0.0223
0.0821
0.2182
0.1121
0.1693
0.3311
-3.8180
0.0000
-2.8727
0.0000
11.1%
30.6%
10.8%
30.2%
935
526
wage2.dta
wage1.dta
Standardisierung unnötig, da gleiche Maßeinheiten (ein- und
dieselbe Variable).
Standardisierung sogar schädlich, da z-Transformation stichprobenspezifische Informationen verwendet.
Benutze unstandardisierte Regressionskoeffizienten!
Vergleich des Einflusses mehrerer
Variablen innerhalb der Stichproben
Variable
Ausbildung
Berufserfahrung
Betriebszugehörigkeit
Konstante
R²
adj. R²
n
Datensatz
•
•
•
1980
1976
Regressionskoeffizienten Regressionskoeffizienten
unstand.
stand.
unstand.
stand.
1.5397
0.3424
0.5990
0.4491
0.3306
0.1464
0.0223
0.0821
0.2182
0.1121
0.1693
0.3311
-3.8180
0.0000
-2.8727
0.0000
11.1%
30.6%
10.8%
30.2%
935
526
wage2.dta
wage1.dta
Standardisierung notwendig, wenn die Variablen in unterschiedlichen
Maßeinheiten gemessen sind.
Die Verwendung stichprobenspezifischer Informationen bei der zTransformation ist unschädlich, da Vergleich innerhalb der Stichprobe.
Benutze standardisierte Regressionskoeffizienten!
Gliederung
1. Multiple Regression
2. Vergleich des Einflusses verschiedener
Variablen
3. Vergleiche zwischen verschiedenen
Regressionsmodellen
4. Ergebnispräsentation
Ergebnispräsentation
• Hinweise zur Durchführung eines eigenen
Forschungsprojektes finden sich in Kapitel
19 von Wooldridge (2003). Darin
insbesondere:
– Allgemein: Writing an empirical paper
(Abschnitt 19.5, WO 657-665)
– Tabellen: Style hints (WO 663-665, kopiert)
Zum Schluss
Literatur
• Wooldridge, J. (2003): Introductory
econometrics: a modern approach. South
Western College Publishing.
– Kapitel 3 diskutiert sowohl das trivariate als auch das
allgemeine multiple Regressionsmodell. Lesen Sie
nur die Passagen (WO 68-84), die sich auf den
deskriptiven Teil der Regressionsanalyse beziehen.
– Standardisierte Regressionskoeffizienten werden in
Kapitel 6 erläutert (WO 182-187).
– Ebenso das adjustierte R-Quadrat (WO 196-200).
Zusammenfassung
Multiple
Regression
• überprüft Hypothesen über Effekte von Variablen
• Erklärung der Varianz der Zielvariablen
Vergleich der • einfach bei gleichen Maßeinheiten
Effekte
• standardisierte Regressionskoeffizienten
• R-Quadrat-Verlust bei Elimination
• konditionale Effektplots
Vergleich von • Gruppen von Variablen
Regressions- • Stabilität der Schätzer
modellen
• Erklärungsbeitrag der einzelnen Variablen
Welche
Koeffizienten
• zwischen Stichproben: unstandardisierte Koeffizienten
• innerhalb Stichproben: standardisierte Koeffizienten
Bericht
1. Einleitung, 2. Theorie / Konzeptionelles, 3. Daten,
Hypothesen, Methoden, 4. Ergebnisse, 5. Zusammenfassung und Kritik
Wichtige Fachausdrücke
Deutsch
Englisch
Deutsch
Englisch
unstandard.
Regressionskoeffizient
unstandardized
regression
coefficient
Restriktion
restriction
standard.
Regressionskoeffizient
standardized
regression
coefficient
restringiertes
Modell
restricted
model
adjustiertes
R-Quadrat
adjusted
R-Square
nicht restringiertes
Modell
unrestricted
model
hierarchisches
Modell
hierarchical
(nested) model
konditionaler
Effektplot
conditional
effect plot
Stata-Befehle
reg y x1 x2 x3 x4
Multiple Regression (KleinsteQuadrate Methode)
reg y x1 x2 x3 x4, beta
zusätzlich: Ausdruck der
standardisierten Koeffizienten
generate b_prognose=_b[_cons] +
Berechnung unter Verwendung
_b[income]*income + _b[prestige]*0 + der intern abgespeicherten
_b[educ]*0 + _b[attend]*0 + _b[size]*0 Regressionskoeffizienten
graph twoway line b_prognose
income
konditionaler Effekt-Plot
Herunterladen